Schlafmodus für Siri und AlexaStromhunger Neuronaler Netze bändigen
Von
Michael Eckstein
Eine Forschungsgruppe um den KI-Forscher Franz Pernkopf hat untersucht, wie der Leistungshunger von neuronalen Netzen gebändigt werden kann, die in unserem Alltag für Sprach- und Bilderkennung zuständig sind. Ihre Neugier hat die Forschenden zu neuen Lösungen geführt.
Alexa und Co sind clevere Systeme, die laufend dazulernen. Das ist sehr rechenintensiv. Forscherteams haben nun Wege gefunden, die Rechenmethoden zu vereinfachen, ohne die Leistungen von künstlichen Intelligenzen zu schmälern.
Vor gut zehn Jahren wurden sie aus dem Dornröschenschlaf geweckt – spezielle Computermethoden, neuronale Netze genannt, die wie das Gehirn aus miteinander verbundenen Neuronen bestehen und selbstständig lernen, komplexe Aufgaben zu lösen. Zu Beginn des Jahrtausends fristeten neuronale Netze in der wissenschaftlichen Gemeinschaft ein Schattendasein. Dabei sind sie nur ein mathematischer Ansatz, Funktionen nachzubilden.
Schon in den Neunzigerjahren konnte gezeigt werden, dass neuronale Netze im Prinzip fast beliebige Funktionen lernen können, mit vielen praktischen Einsatzmöglichkeiten. Dennoch ließ die Forschungsgemeinschaft für künstliche Intelligenz die Finger davon.
„Was fehlte, waren die Rechenleistung, genügend Daten und gute Software-Tools“, erklärt Franz Pernkopf von der Technischen Universität Graz. „2010 hat sich das geändert und seither boomt das Gebiet.“ Damit stieg die Leistungsfähigkeit vieler KI-Anwendungen massiv und hat etwa mit sprachgesteuerten Diensten wie Siri oder Alexa unseren Alltag erobert.
Viele Berechnungen finden nach wie vor in der Cloud statt
Doch neuronale Netze sind nach wie vor rechenaufwändig und die Berechnungen werden oft von den Anwendergeräten in die Cloud ausgelagert. In den Serverfarmen der Cloudanbieter werden dafür vielfach Grafikprozessoren (GPUs) genutzt, die eigentlich für leistungshungrige Videospiele entwickelt wurden und heute auch stark beim Bitcoin-Mining im Einsatz sind.
Für manche Bereiche, etwa für selbstfahrende Autos oder für batteriebetriebene Geräte, ist dieser Rechenaufwand ein Hindernis. In einem Forschungsprojekt, das vom Wissenschaftsfonds FWF finanziert wurde, hat die Gruppe um Franz Pernkopf daher alternative Zugänge gesucht, um die Komplexität der Rechnungen zu reduzieren.
Neuronale Netze sind nicht überall sinnvoll
„Neuronale Netze sind nicht für alle Aufgaben sinnvoll“, erklärt Pernkopf vorweg. Wenn das Verhalten eines Systems gut durch ein physikalisches Modell beschrieben werden kann, dann sei es besser, dieses Modell auch zu nutzen. Sinnvoll seien neuronale Netze dort, wo die Aufgabenstellungen schwer greifbar sind.
Als Beispiel nennt der Forscher das Erkennen einer Kuh auf einer Weide. „Es ist nicht so einfach zu definieren, wie eine Kuh aussieht. In so einem Fall sind neuronale Netze sehr nützlich.“ Wenn ein neuronales Netz mit genügend Bildern von Kühen trainiert wird, kann es irgendwann in einem neuen Bild eine Kuh erkennen.
In der Regel verwenden neuronale Netze wesentlich mehr Parameter, als tatsächlich benötigt werden. Pernkopfs Team suchte daher nach Möglichkeiten, die Komplexität von künstlichen neuronalen Netzwerken zu reduzieren, ohne die Erkennungsraten zu beeinträchtigen.
Ein neuronales Netz besteht aus einer Handvoll Komponenten, und es gibt sehr viele Möglichkeiten, diese miteinander zu verschalten. „Wir versuchten, automatische Methoden zu entwickeln, um das effizienteste Netz zu finden“, erklärt der Experte für intelligente Systeme.
Mit kleineren Zahlen rechnen
Ein weiterer Ansatzpunkt ist die Ebene der Computerhardware. Heutige PCs nutzen für Additionen und Multiplikationen 32 oder 64 Bit. Mit 32 Bit lassen sich über vier Milliarden Zahlen darstellen. Das Problem: Der Computer behandelt jede Zahl, als wäre sie in der Größenordnung von vier Milliarden. So große Zahlen sind für viele Anwendungen überhaupt nicht nötig.
„Wir haben herausgefunden, dass wir diese Bitbreiten reduzieren können, ohne an Performance zu verlieren“, berichtet Pernkopf von den aktuellen Ergebnissen. „Wer mit 8 Bit statt mit 32 Bit rechnet, hat sofort nur noch ein Viertel der Rechenoperationen.“ Man sei sogar so weit gegangen, statt mit 8 Bit nur noch mit einem Bit zu rechnen, mit verblüffend guter Performance in gewissen Bereichen.
Einen besonderen Clou landete Pernkopfs Team, als es gelang, die Parameter als Wahrscheinlichkeitsverteilung statt als exakte Zahlen darzustellen. „Wir waren die Ersten, die das gemacht haben“, sagt Pernkopf, der die Eleganz des neuen Ansatzes herausstreicht, weil er die Suche nach den richtigen Parametern erleichtert.
Parameter als Wahrscheinlichkeitsverteilung
Es ist ein abstraktes Ergebnis, dessen theoretischer Charakter dem neuen Forschungsgebiet geschuldet ist. „Als wir den Förderantrag für das Projekt eingereicht haben, hat man in der Literatur dazu wenig gefunden“, erzählt Pernkopf. Unmittelbar darauf seien nach und nach Publikationen zu dem Thema aufgetaucht.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das Projekt, das eine Laufzeit von vier Jahren hatte und 2020 endete, konnte also wirkliche Pionierarbeit leisten. Man kooperierte dafür mit der Universität Heidelberg, deren Fokus stärker auf der Computerhardware lag, während man sich in Graz auf die Aspekte des Machine Learning konzentrierte.
Verschiedene Folgeprojekte, etwa von der Forschungsförderungsgesellschaft FFG, sowie ein weiteres, internationales Projekt mit der Deutschen Forschungsgemeinschaft DFG, sollen nun die theoretischen Ergebnisse in die Anwendung bringen.
Spracherkennung: Reaktion nur auf Reizwörter
Ein Anwendungsfall wurde allerdings noch im Rahmen des Grundlagenprojekts untersucht. Dabei ging es um die Erkennung von Schlüsselwörtern, um Spracherkennungssysteme aus dem Standby zu holen. „Wenn ich auf einem Smartphone eine Spracherkennungssoftware permanent laufen lasse, dann ist spätestens nach einer Stunde der Akku leer, weil das so rechenintensiv ist“, schildert Pernkopf.
Es braucht also ein schlankeres, ressourceneffizienteres System, das nur ein paar Reizwörter erkennen muss – wie ein schlafender Mensch, dessen Aufmerksamkeit stark eingeschränkt ist. So lasse sich viel Energie sparen.
Pernkopf ist überzeugt, dass neuronale Netze, nicht zuletzt ressourceneffiziente Systeme in batteriebetriebenen Geräten, unseren Alltag weiter durchdringen werden. An eine starke künstliche Intelligenz glaubt er hingegen nicht: „Der Mensch wird sich nicht komplett ersetzen lassen.“
Zur Person: Franz Pernkopf
Franz Pernkopf ist Elektrotechnikingenieur und forscht am Institut für Signalverarbeitung und Sprachkommunikation an der Technischen Universität Graz. Der mehrfach ausgezeichnete Wissenschaftler interessiert sich besonders für maschinelles Lernen und Mustererkennung, speziell in den Bereichen Medizintechnik und Sprachsignalverarbeitung. Das internationale Forschungsprojekt „Effiziente tiefe neuronale Netze für eingebettete Systeme“ (2016–2020) wurde vom Wissenschaftsfonds FWF mit 214.000 Euro gefördert.