Mobile-Menu

Photonisches Computing Wie überlegen ist das Rechnen mit Licht?

Von Hendrik Härter 4 min Lesedauer

Anbieter zum Thema

Das Rechnen mit Licht mit einer photonischen Native Processing Unit (NPU) führt vor allem bei rechenintensiven Anwendungen zu Energie- und Geschwindigkeitseinsparungen. Die von Q.ANT vorgestellte NPU ist mit einer Standard PCIe Schnittstelle ausgestattet.

Rechnen mit Photonen für KI-Anwendungen: Die photonische Native Processing Unit (NPU) konnten bei ersten Benchmark-Tests überzeugen.(Bild:  frei lizenziert /  Pixabay)
Rechnen mit Photonen für KI-Anwendungen: Die photonische Native Processing Unit (NPU) konnten bei ersten Benchmark-Tests überzeugen.
(Bild: frei lizenziert / Pixabay)

Mit der Einführung der photonischen Native Processing Unit (NPU) durch Q.ANT über die Standard-PCIe-Schnittstelle wird sich die Rechentechnologie in den nächsten Jahren verändern. Für Elektronikentwickler bedeutet das, nicht nur effizienter sondern auch nachhaltiger zu arbeiten. Doch was genau macht die photonische Architektur so besonders, und warum ist sie für die Elektronikbranche relevant?

Wenn Licht eine bedeutende Rolle spielt

Die photonische Architektur unterscheidet sich grundlegend von klassischen CMOS-Prozessoren: Statt Daten durch das Schalten von Transistoren zu verarbeiten, nutzt die NPU Licht als Berechnungsmedium. Dies bringt entscheidende Vorteile mit sich.

„Die Verarbeitung mit Licht reduziert den Energieverbrauch erheblich, da keine Verlustleistungen durch das Laden und Entladen von Transistoren entstehen. Zudem ermöglicht die Steuerung durch elektrische Felder statt Ströme eine drastische Senkung des Stromverbrauchs und eine Erhöhung der Betriebsfrequenz“, sagt Dr. Michael Förtsch, CEO von Q.ANT.

Ein anschauliches Beispiel liefert die Fourier-Transformation: Während klassische Prozessoren Millionen von Transistoren benötigen, wird dieselbe Operation in einem einzigen optischen Element der NPU durchgeführt. Durch Wellenlängenmultiplexing können mehrere Operationen parallel laufen, was für KI-Inferenz und Maschinelles Lernen völlig neue Dimensionen eröffnet.

Kommunikation über Standard-PCIe-Schnittstelle

Für Entwickler, die bereits mit etablierten Frameworks wie Keras, TensorFlow oder PyTorch arbeiten, stellt sich die Frage: Wie einfach ist die Integration der neuen Technologie? „Die NPU nutzt die Standard-PCIe-Schnittstelle, sodass keine grundlegenden Änderungen an bestehenden Systemen erforderlich sind“, erklärt Dr. Förtsch. „Mit unserem Q.ANT Toolkit können Entwickler ihren bestehenden Quellcode lediglich neu kompilieren, um photonisches Computing zu nutzen.“

Das Toolkit wird grundlegende Operationen der AI Inference bereitstellen. Eine Integration in eines der großen AI-Frameworks ist geplant, was zu einer nahtlosen Integration und Kompatibilität zu Industriestandards wie Keras, PyTorch oder TensorFlow führen wird.

Das Blockschaltbild zeigt, was alles in der NPU steckt: Von der Hardwareschicht bis zur ersten Softwareschicht.(Bild:  Q.ANT)
Das Blockschaltbild zeigt, was alles in der NPU steckt: Von der Hardwareschicht bis zur ersten Softwareschicht.
(Bild: Q.ANT)

Endkunden müssen ihren Quellcode nicht neu programmieren, um mit der Technologie kompatibel zu sein. „Der Quellcode muss lediglich mit unserer Compiler-Erweiterung neu kompiliert werden. Das ist unsere Philosophie, und so glauben wir, dass wir Photonic Computing zu einem Teil dieses Chip-Ökosystems machen können“, sagt Förtsch.

In der ersten Version ermöglicht das Toolkit grundlegende AI-Inferenz-Operationen. Eine umfassende Integration in etablierte Frameworks wird vorbereitet, um eine vollständige Kompatibilität mit gängigen Industriestandards sicherzustellen.

Die ersten Benchmark-Ergebnisse überzeugen

Die NPU zeigt beeindruckende Ergebnisse bei Benchmark-Tests: Bei Experimenten mit MNIST-Datensätzen konnte die Anzahl der Parameter um 43 Prozent und die notwendigen Operationen um 46 Prozent reduziert werden – ohne Einbußen bei der Genauigkeit. Simulationen größerer Modelle, wie GPT-Architekturen, zeigen ebenfalls vielversprechende Ergebnisse.

„Unser photonisches Design skaliert besser als klassische Prozessoren, insbesondere bei großen Problemstellungen. Die Energieeinsparung bei KI-Inferenz liegt theoretisch bei einem Dreißigstel dessen, was heutige Technologien benötigen“, sagt Förtsch.

Die Auswirkungen des photonischen Rechnens gehen weit über Energieeinsparungen hinaus. Besonders bei neuronalen Netzen könnten die Aktivierungsfunktionen, traditionell ein komplexes Thema, durch die photonische Architektur erheblich optimiert werden. Die Nutzung von analogen Funktionen wie Sinus und Exponential beschleunigt das Training und reduziert den Rechenaufwand.

„Zum ersten Mal können wir Netzwerke trainieren, die mit digitalen GPUs nicht umsetzbar wären. Das eröffnet völlig neue Möglichkeiten, besonders im High-Performance-Computing,“ erklärt Förtsch.

Neuronale Netzwerke effizienter trainieren

Mit dem photonischen Rechnen eröffnen sich völlig neue Potenziale. Zum ersten Mal kann man Netzwerke trainieren, die völlig anders sind als das, was eine GPU jemals tun kann“, sagt Förtsch. In KI-Netzwerken ist die Aktivierungsfunktion das am meisten unterschätzte Werkzeug. Dabei handelt es sich um einen zentralen Bestandteil neuronaler Netze in der KI. Sie entscheidet, wie die Eingangsdaten in einem künstlichen Neuron verarbeitet werden und beeinflusst maßgeblich, ob und in welcher Form die Daten an die nächste Schicht des neuronalen Netzes weitergeleitet werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Netzwerktechnik, IP-Kommunikation und UCC

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

„In neuronalen Netzen gibt es Eingangsparameter und Netztiefen. Zwischen den Schichten liegen die Ansteuerfunktionen. In der digitalen Welt ist es sehr komplex, diese Funktionen parametrisierbar in einer digitalen Schaltung zu realisieren. In der photonischen Welt können diese Funktionen ein Weg zu einem wesentlich effizienteren Training im KI-Kontext sein. Durch den Analogrechner (die NPU) haben wir Zugang zu Sinus-, Kosinus- und Exponentialfunktionen. Der richtige Einsatz dieser neuen Möglichkeiten kann zu einer deutlichen Reduktion der Parameter und damit zu einer Effizienzsteigerung und Beschleunigung beim Training neuronaler Netze führen. Unser aktueller Fokus liegt auf HPC-Rechenzentren. Hier sollen in Zukunft dedizierte Rechenknoten mit NPUs (und GPUs) zur Verfügung stehen, die für jede Anwendung die optimale Hardware verwenden“, sagt Förtsch abschließend.

Dieser Beitrag stammt von unserem Schwesterportal Elektronikpraxis.

Artikelfiles und Artikellinks

(ID:50247839)