Das Rechnen mit Licht mit einer photonischen Native Processing Unit (NPU) führt vor allem bei rechenintensiven Anwendungen zu Energie- und Geschwindigkeitseinsparungen. Die von Q.ANT vorgestellte NPU ist mit einer Standard PCIe Schnittstelle ausgestattet.
Rechnen mit Photonen für KI-Anwendungen: Die photonische Native Processing Unit (NPU) konnten bei ersten Benchmark-Tests überzeugen.
Mit der Einführung der photonischen Native Processing Unit (NPU) durch Q.ANT über die Standard-PCIe-Schnittstelle wird sich die Rechentechnologie in den nächsten Jahren verändern. Für Elektronikentwickler bedeutet das, nicht nur effizienter sondern auch nachhaltiger zu arbeiten. Doch was genau macht die photonische Architektur so besonders, und warum ist sie für die Elektronikbranche relevant?
Wenn Licht eine bedeutende Rolle spielt
Die photonische Architektur unterscheidet sich grundlegend von klassischen CMOS-Prozessoren: Statt Daten durch das Schalten von Transistoren zu verarbeiten, nutzt die NPU Licht als Berechnungsmedium. Dies bringt entscheidende Vorteile mit sich.
„Die Verarbeitung mit Licht reduziert den Energieverbrauch erheblich, da keine Verlustleistungen durch das Laden und Entladen von Transistoren entstehen. Zudem ermöglicht die Steuerung durch elektrische Felder statt Ströme eine drastische Senkung des Stromverbrauchs und eine Erhöhung der Betriebsfrequenz“, sagt Dr. Michael Förtsch, CEO von Q.ANT.
Ein anschauliches Beispiel liefert die Fourier-Transformation: Während klassische Prozessoren Millionen von Transistoren benötigen, wird dieselbe Operation in einem einzigen optischen Element der NPU durchgeführt. Durch Wellenlängenmultiplexing können mehrere Operationen parallel laufen, was für KI-Inferenz und Maschinelles Lernen völlig neue Dimensionen eröffnet.
Kommunikation über Standard-PCIe-Schnittstelle
Für Entwickler, die bereits mit etablierten Frameworks wie Keras, TensorFlow oder PyTorch arbeiten, stellt sich die Frage: Wie einfach ist die Integration der neuen Technologie? „Die NPU nutzt die Standard-PCIe-Schnittstelle, sodass keine grundlegenden Änderungen an bestehenden Systemen erforderlich sind“, erklärt Dr. Förtsch. „Mit unserem Q.ANT Toolkit können Entwickler ihren bestehenden Quellcode lediglich neu kompilieren, um photonisches Computing zu nutzen.“
Das Toolkit wird grundlegende Operationen der AI Inference bereitstellen. Eine Integration in eines der großen AI-Frameworks ist geplant, was zu einer nahtlosen Integration und Kompatibilität zu Industriestandards wie Keras, PyTorch oder TensorFlow führen wird.
Das Blockschaltbild zeigt, was alles in der NPU steckt: Von der Hardwareschicht bis zur ersten Softwareschicht.
(Bild: Q.ANT)
Endkunden müssen ihren Quellcode nicht neu programmieren, um mit der Technologie kompatibel zu sein. „Der Quellcode muss lediglich mit unserer Compiler-Erweiterung neu kompiliert werden. Das ist unsere Philosophie, und so glauben wir, dass wir Photonic Computing zu einem Teil dieses Chip-Ökosystems machen können“, sagt Förtsch.
In der ersten Version ermöglicht das Toolkit grundlegende AI-Inferenz-Operationen. Eine umfassende Integration in etablierte Frameworks wird vorbereitet, um eine vollständige Kompatibilität mit gängigen Industriestandards sicherzustellen.
Die ersten Benchmark-Ergebnisse überzeugen
Die NPU zeigt beeindruckende Ergebnisse bei Benchmark-Tests: Bei Experimenten mit MNIST-Datensätzen konnte die Anzahl der Parameter um 43 Prozent und die notwendigen Operationen um 46 Prozent reduziert werden – ohne Einbußen bei der Genauigkeit. Simulationen größerer Modelle, wie GPT-Architekturen, zeigen ebenfalls vielversprechende Ergebnisse.
„Unser photonisches Design skaliert besser als klassische Prozessoren, insbesondere bei großen Problemstellungen. Die Energieeinsparung bei KI-Inferenz liegt theoretisch bei einem Dreißigstel dessen, was heutige Technologien benötigen“, sagt Förtsch.
Die Auswirkungen des photonischen Rechnens gehen weit über Energieeinsparungen hinaus. Besonders bei neuronalen Netzen könnten die Aktivierungsfunktionen, traditionell ein komplexes Thema, durch die photonische Architektur erheblich optimiert werden. Die Nutzung von analogen Funktionen wie Sinus und Exponential beschleunigt das Training und reduziert den Rechenaufwand.
„Zum ersten Mal können wir Netzwerke trainieren, die mit digitalen GPUs nicht umsetzbar wären. Das eröffnet völlig neue Möglichkeiten, besonders im High-Performance-Computing,“ erklärt Förtsch.
Neuronale Netzwerke effizienter trainieren
Mit dem photonischen Rechnen eröffnen sich völlig neue Potenziale. Zum ersten Mal kann man Netzwerke trainieren, die völlig anders sind als das, was eine GPU jemals tun kann“, sagt Förtsch. In KI-Netzwerken ist die Aktivierungsfunktion das am meisten unterschätzte Werkzeug. Dabei handelt es sich um einen zentralen Bestandteil neuronaler Netze in der KI. Sie entscheidet, wie die Eingangsdaten in einem künstlichen Neuron verarbeitet werden und beeinflusst maßgeblich, ob und in welcher Form die Daten an die nächste Schicht des neuronalen Netzes weitergeleitet werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
„In neuronalen Netzen gibt es Eingangsparameter und Netztiefen. Zwischen den Schichten liegen die Ansteuerfunktionen. In der digitalen Welt ist es sehr komplex, diese Funktionen parametrisierbar in einer digitalen Schaltung zu realisieren. In der photonischen Welt können diese Funktionen ein Weg zu einem wesentlich effizienteren Training im KI-Kontext sein. Durch den Analogrechner (die NPU) haben wir Zugang zu Sinus-, Kosinus- und Exponentialfunktionen. Der richtige Einsatz dieser neuen Möglichkeiten kann zu einer deutlichen Reduktion der Parameter und damit zu einer Effizienzsteigerung und Beschleunigung beim Training neuronaler Netze führen. Unser aktueller Fokus liegt auf HPC-Rechenzentren. Hier sollen in Zukunft dedizierte Rechenknoten mit NPUs (und GPUs) zur Verfügung stehen, die für jede Anwendung die optimale Hardware verwenden“, sagt Förtsch abschließend.
Dieser Beitrag stammt von unserem Schwesterportal Elektronikpraxis.