31. Mai 2022   Bildung & Uni Business Tech

Intel sucht stromsparende AI-Chips mit TU Graz

Nahuku-Board von Intel mit Loihi-Chips ©Tim Herman / Intel Corporation

Deep Learning. Sogenannte neuromorphe Technologie ist bis zu sechzehnmal energieeffizienter ist als andere AI-Systeme: Projektpartner sind Intel und die TU Graz.

Das Institut für Grundlagen der Informationsverarbeitung der TU Graz und Intel Labs haben erstmals experimentell nachgewiesen, dass ein großes neuronales Netz Sequenzen wie zum Beispiel Sätze der menschlichen Sprache auf neuromorpher Hardware um das vier- bis sechzehnfache effizienter verarbeiten kann, als auf herkömmlicher Hardware, heißt es in einer Aussendung der steirischen Technik-Uni.

Die neuen Forschungsergebnisse basieren laut den Angaben auf dem neuromorphen Forschungschip Loihi (1. Generation) der Intel Labs. Loihi nutze Erkenntnisse der Neurowissenschaften, um Chips nach dem Vorbild des biologischen Gehirns zu schaffen. Die Forschungsergebnisse wurden nun in Nature Machine Intelligence publiziert. Auf dem Bild: Ein „Nahuku“-Board von Intel, das bis zu 32 Loihi-Chips enthalten kann.

Das menschliche Gehirn als Vorbild

Smarte Maschinen und intelligente Computer, die selbstständig Objekte und Beziehungen zwischen verschiedenen Objekten erkennen und daraus schlussfolgern können, sind Gegenstand der weltweiten Artificial-Intelligence (AI)-Forschung. Der Energieverbrauch ist ein Haupthindernis auf dem Weg zu einer breiteren Anwendung solcher AI-Methoden, heißt es dazu. Einen Schub in die richtige Richtung erhofft man sich von neuromorpher Technologie. Sie hat das menschliche Gehirn zum Vorbild, das Weltmeister in Sachen Energieeffizienz ist: Für das Verarbeiten von Informationen verbrauchen seine hundert Milliarden Neuronen nur etwa 20 Watt und damit nicht wesentlich mehr Energie, als eine durchschnittliche Energiesparlampe.

In seiner Arbeit konzentrierte sich das Team von TU Graz und Intel Labs auf Algorithmen, die mit zeitlichen Prozessen arbeiten. So musste das System beispielsweise Fragen zu einer zuvor erzählten Geschichte beantworten und die Beziehungen zwischen Objekten oder Personen aus dem Kontext erfassen. Die getestete Hardware bestand aus 32 Loihi-Chips.

Die nächste Generation kommt

„Unser System ist vier- bis sechzehnmal energieeffizienter als andere AI-Modelle auf herkömmlicher Hardware “, so Philipp Plank, Doktorand am TU Graz-Institut für Grundlagen der Informationsverarbeitung. Plank erwartet weitere Effizienzsteigerungen, wenn diese Modelle auf die nächste Generation der Loihi-Hardware migriert werden, die die Leistung der Chip-zu-Chip-Kommunikation deutlich verbessert.

„Intels Loihi-Forschungschips versprechen Fortschritte in der AI, insbesondere durch die Senkung der hohen Energiekosten“, so Mike Davies, Direktor des Intel Neuromorphic Computing Lab: „Unsere Arbeit mit der TU Graz liefert weitere Beweise dafür, dass die neuromorphe Technologie die Energieeffizienz heutiger Deep-Learning-Workloads verbessern kann, indem ihre Implementierung aus der Perspektive der Biologie neu überdacht wird.“

Nachahmung des menschlichen Kurzzeit-Gedächtnisses

In ihrem Konzept bildete die Gruppe eine vermutete Methode des menschlichen Gehirns nach, wie Wolfgang Maass, Doktorvater von Philipp Plank und emeritierter Professor am Institut für Grundlagen der Informationsverarbeitung erklärt: „Simulationen lassen darauf schließen, dass ein Ermüdungsmechanismus einer Untergruppe von Neuronen für das Kurzzeit-Gedächtnis wesentlich ist.“

Das Netzwerk müsse nur testen, welche Neurone gerade ermüdet sind, um zu rekonstruieren, welche Informationen es vorher verarbeitet hat. Mit anderen Worten: Vorherige Information wird in Nicht-Aktivität von Neuronen gespeichert, und Nicht-Aktivität verbraucht die geringste Energie. Finanziell unterstützt wurde diese Forschung laut TU Graz durch Intel sowie durch das europäische Human Brain Project, das Neurowissenschaften, Medizin und vom Gehirn inspirierte Technologien aus dem EU-Raum miteinander verbinde. Hierfür wurde die digitale Forschungsinfrastruktur „EBRAINS“ ins Leben gerufen.

    Weitere Meldungen:

  1. Maschinelles Lernen: Forschungsnetzwerk an der TU Graz
  2. Capito will komplexe Texte per App vereinfachen
  3. Webinar zu neuen EU-Regeln für Artificial Intelligence
  4. Uni Wien errechnet Moleküle schneller mit Deep Learning