Nachhaltige KI: Beiträge der Forschung aus Nordrhein-Westfalen heraus © AdobeStock/Digital Vision Lab
Viele Forschungsprojekte »Made in NRW« erarbeiten Lösungen für mehr Nachhaltigkeit von und durch KI
Künstliche Intelligenz zum Wohle von Mensch und Natur einzusetzen, das klingt nach »Prädikat: wertvoll«. Tatsächlich zeigen viele Beispiele, dass KI-Methoden einen relevanten Beitrag zur Nachhaltigkeit leisten können. Doch wie fällt die Bilanz aus, wenn sich in der Gleichung teilweise auch ein hoher Ressourcenverbrauch durch die KI-Systeme selbst findet? In ihrem aktuellen Blogbeitrag zeigt KI-Managerin Monika Löber auf, welche Problematik sich hinter dem Begriff »Nachhaltige KI« verbirgt. Sie skizziert die Initiativen, die die hiesige Forschungslandschaft angestoßen hat, damit Künstliche Intelligenz – insbesondere solche »Made in NRW« – in Zukunft uneingeschränkt das Label »nachhaltig« verdient.
Wir kennen ungezählte Beispiele für Nachhaltigkeit durch KI: angefangen in der Landwirtschaft, wo KI in allen Etappen des Wertschöpfungskreislaufs direkt oder indirekt Ressourcen einsparen kann, beispielsweise beim Einsatz von Dünger oder Herbiziden, über Anwendungsfelder bei der medizinischen Versorgung, wie der Früherkennung von Krankheiten oder der Optimierung von Prothesen. Ebenso finden sich Beispiele im Hochwasser- oder Katastrophenschutz, bei der Sicherung der Trinkwasserqualität und der Reinigung von Abwässern, bis hin zu ungezählten Anwendungsfällen im Umwelt- und Naturschutz.[1] Und natürlich ist der Unternehmenskontext zu nennen, wo Rohstoffe und Energie durch den Einsatz Künstlicher Intelligenz eingespart werden.
Doch es gibt auch eine andere Seite der goldglänzenden Medaille: Die Entwicklung von KI-Systemen kann mit einem mitunter erheblichen Energieverbrauch verbunden sein. Ein Beispiel, welches oft angeführt wird, ist das Training von sogenannten tiefen neuronalen Netzen. Diese »Deep Neural Networks«, die man in diesem Kontext für das Maschinelle Lernen verwenden kann, bestehen aus vielen Schichten von künstlichen Neuronen mit mehreren Milliarden Parametern. Für das Training solcher Netze, in der KI-Forschung auch Modelle genannt, werden teilweise unvorstellbare Datenmengen und viel Rechenleistung benötigt.
Nun ist aber Künstliche Intelligenz nicht automatisch mit Deep Learning gleichzusetzen. Viele KI-Verfahren erfordern gar kein neuronales Netzwerk und kommen mit weniger Daten oder Energie aus. Ein Beispiel sind Wissensgraphen, die Daten und Wissen strukturieren und miteinander verknüpfen. Des Weiteren muss auch die spätere Nutzung der KI-Modelle keinesfalls mit einem hohen Energieverbrauch und einem beachtlichen CO2-Fußabdruck zu Buche schlagen. Sobald die trainierten Netze anschließend Dienstleistungen für eine sehr große Zahl von Nutzerinnen und Nutzern erbringen, relativiert sich der Einzelverbrauch. In Fällen, in denen man nicht um ein energieintensives Training der Modelle umhin kommt, lohnt sich eine Abwägung von Kosten und Nutzen der anvisierten KI-Anwendung, wie Thorsten Staake, Professor für Wirtschaftsinformatik an der Universität Bamberg, in einem Interview erläutert: »Wenn, als Beispiel, für das Training eines neuronalen Netzes für einen Spurhalte-Assistenten für eine ganze Fahrzeugflotte eines großen Herstellers Energie in der Höhe des Verbrauchs eines Pkws aufgewendet wird und damit auch nur ein Unfall verhindert wird, wäre das energetisch schon kompensiert – vom zusätzlichen Wert für die Unfallbeteiligten ganz abgesehen.«
Können KI-Systeme abhängig vom Anwendungsfall also heute schon als nachhaltig bezeichnet werden?
Es käme auf die ausgewählten KI-Methoden, die Anzahl der Nutznießer oder auch den letztlichen Nutzen der Lösung an. Führt man sich allerdings vor Augen, dass bei KI-Anwendungen eine ganze Reihe von Faktoren für die Nachhaltigkeitsbilanz ausschlaggebend sind, so sind dies zugleich auch die Stellschrauben für eine (noch) effizientere, nachhaltigere KI der Zukunft. Und ein Blick auf die Forschungslandschaft zeigt: Da geht noch was! Wo die Reise hingeht, zeigen beispielhaft die folgenden Schlaglichter.
Der Energiebedarf von KI-Systemen hängt mit der Hardware sowie mit vielen Aspekten bei der Implementierung der KI-Verfahren zusammen, mit der Datenmenge, den Datenstrukturen, der Datenspeicherung und der Datenkommunikation.[2] Fangen wir bei der Hardware an: KI-Anwendungen laufen meist auf konventionellen Rechnern. Bei der zugrundeliegenden Von-Neumann-Computerarchitektur werden kontinuierlich Daten zwischen Prozessor (CPU) und Speicher (RAM) ausgetauscht, was energieintensiv und vergleichsweise langsam ist. Allein diese Kommunikation beansprucht geschätzte 95 Prozent der genutzten Energie. Anders das deutlich effizientere menschliche Gehirn, das Informationsverarbeitung und Informationsspeicher nicht trennt.
Energieeffizientes »Neuromorphes Computing«
Unter dem Schlagwort »Neuromorphes Computing« wird – auch aus NRW heraus – an neuartigen Hardware-Lösungen gearbeitet, die sich das Gehirn und seine Informationsverarbeitung zum Vorbild nehmen. Die Forschungsansätze umfassen Materialien, welche mehr als zwei Zustände besitzen (statt eines binären also ein mehrstufiges Zahlensystem), oder die Nutzung von analogen Schaltkreisen zur Parallelisierung der Rechenschritte.[3]
Das Zukunftscluster NeuroSys im Großraum Aachen hat sich zum Ziel gesetzt, eine vom menschlichen Gehirn inspirierte Hardware zu entwickeln. Rechenprozesse sollen direkt im Speicher stattfinden, was als »Computing-in-Memory« bezeichnet wird und sich besonders gut für künstliche neuronale Netze eignet. Die Transistoren in herkömmlichen Computerchips sollen dabei um ein neuartiges memristives Bauelement ergänzt werden, ähnlich den Synapsen in natürlichen Nervenzellen. Der Memristor oder »memory resistor« soll die Verarbeitung und Speicherung von Information am selben Ort ermöglichen. Dadurch können Informationen hochgradig parallel verarbeitet werden, das wiederum schlägt sich in einer höheren Energieeffizienz und Leistungsfähigkeit der Hardware nieder. Die neuromorphen Systeme mit künstlichen Synapsen könnten eine Vielzahl neuer effizienter KI-Anwendungen ermöglichen: von kleinsten Nanosensoren (»Smart Dust«), über intelligente Implantate mit energieautarker KI-Regelung, bis hin zu fahrzeugbasierter KI-Elektronik für autonomes Fahren. Mehr erfahren
Ebenfalls im Bereich der Memristoren arbeitet das Bochumer Start-up Gemesys Technologies. Die Entwickler sind Teil des Zukunftsclusters NeuroSys und arbeiten daran, die von der Natur inspirierte Informationsverarbeitung in elektrischen Schaltungen nachzubilden und zur Produktreife zu bringen. Für die neuartigen Memristoren muss das Design elektrischer Schaltungen am Reißbrett entwickelt werden. Im Gespräch mit KI.NRW hat Gemesys-Geschäftsführer Dr.-Ing. Dennis Michaelis skizziert, dass es letztlich um einen Paradigmenwechsel geht: Statt digitale Hardware zu verbessern, wird analoge Hardware komplett neu gedacht. Die technische Machbarkeit ihres neuartigen Chip-Designs hat das Gemesys-Team in mehreren Software-Emulationen bewiesen, damit ist die Nachahmung der Funktionen eines anderen Computers gemeint, und dabei festgestellt, dass eine um Größenordnungen gesteigerte Effizienz möglich ist.[4] Der nächste Schritt: gemeinsam mit innovativen Industriepartnern konkrete Anwendungsfälle in Bereichen wie Kernfusion (Energieerzeugung), Medikamentenentwicklung (Pharma), autonomes Fahren (Automotive) und vielen anderen generieren.[5] Mehr erfahren
Leistungsstark und energiesparend: »Edge Deployment«, »Federated Learning« und »Ultra Low Power Devices«
Die auf KI optimierte, leistungsstarke und zugleich energiesparende Hardware soll vor allem eines begünstigen: eine Datenverarbeitung und ein Lernen dezentral am Rand des Netzwerks (»On the Edge«). Für das sogenannte Edge Computing, im Kontext von KI auch »AI on the Edge« genannt, muss nicht grundsätzlich eine neue Hardware her. KI-Anwendungen können auf einem oder gleich mehreren dezentralen Rechnern implementiert werden, was als »Edge Deployment« bezeichnet wird. In besonderen Fällen bettet man die KI-Lösungen auf winzigen Mikrokontrollern ein, die mit Stromstärken von wenigen Milliampere und wenigen Kilobyte Speicher haushalten müssen. Üblicherweise passiert das genau dort, wo auch Daten erfasst werden. Sollen beispielsweise in einem Videostream Objekte erkannt werden, kann ein an die Kamera angeschlossener Kleinstrechner den entsprechenden Algorithmus ausführen. An das Rechenzentrum übermittelt wird nur noch das Ergebnis, nicht der gesamte Stream. Zu diesem Thema gibt es einen sehr lesenswerten Blogartikel des Lamarr-Instituts für Maschinelles Lernen und Künstliche Intelligenz.
Das Training des Modells hingegen erfolgt im Vorfeld zentral, ebenso ein eventuelles Nachtraining. Einen weitreichenderen Ansatz verfolgt das dezentrale Training, das »Federated Learning« (verteiltes oder föderiertes Lernen). Es müssen keine großen Datenmengen übertragen oder zentral gespeichert werden, dafür stellt diese Form der Implementierung andere Ansprüche an die Kompression der Modelle, ihre Überwachung sowie das Update der dezentral eingebetteten Lösungen.
Das Fraunhofer-weite Projekt SEC-Learn (»Sensor Edge Cloud for Federated Learning«) nimmt föderiertes Lernen in den Blickpunkt. Das Training von neuronalen Netzen soll direkt am Sensor möglich werden, gleichzeitig sollen aber auch alle anderen Sensorknoten von dem Erlernten profitieren. In dem Verbundprojekt wird als Grundlage das KI-Softwareframework AIfES (Artificial Intelligence for Embedded Systems) des Fraunhofer IMS genutzt. Die Idee dahinter ist, dass Kleinstsysteme auf Basis von Mikrocontrollern gemeinsam ein künstliches neuronales Netz trainieren, wobei jedem Gerät nur ein Teil der Trainingsdaten zur Verfügung steht. Anschließend wird das trainierte Modell auf alle Systeme verteilt und wiederum dort genutzt. Das Vorgehen bewährt sich insbesondere in Bezug auf die Energieeffizienz und Rechenleistung der Systeme – und bietet Vorteile im Datenschutz, da keine Trainingsdaten ausgetauscht werden müssen. Mehr erfahren
An der Technischen Universität Dortmund widmen sich Wissenschaftler*innen den sogenannten Ultra Low Power Devices. ULP-Geräte zeichnen sich durch stark beschränkte Rechen-, Energie- und Speicherressourcen aus. Wollte man auf solchen Geräten einen Datenstrom mit KI-Methoden verarbeiten, wurde dieser bislang an einen zentralen Rechner gesendet, wo ein Vorhersagemodell gelernt wurde, um wiederum auf einem kleineren Gerät ausgeführt zu werden. Forschenden der TU Dortmund gelang es, Maschinelles Lernen auf stark beschränkten Geräten anzuwenden. Komplexe Vorhersagemodelle wurden unmittelbar auf Ultra-Low-Power-Geräten gelernt, wie Prof. Katharina Morik in einem Interview berichtete. Ein weiteres Verfahren, mit dem sogenannte Merkmalsbäume im Datenstrom direkt mitgelernt werden, ermöglicht es, aus Echtzeitdaten auf kleinen Geräten zu lernen, ohne dass ein zentraler Großrechner notwendig ist.[6] Mehr erfahren
Aus dem bisherigen Kompetenzzentrum Maschinelles Lernen Rhein-Ruhr (ML2R) ist 2022 das Lamarr-Institut für Maschinelles Lernen und Künstliche Intelligenz hervorgegangen, welches sich insbesondere mit der Forschung und Entwicklung von leistungsfähigen und dabei ressourcenschonenden KI-Anwendungen befasst. Das erklärte Forschungsziel ist es, Maschinelles Lernen auch auf Geräten mit begrenzter Rechenleistung und begrenzten Energie- und Speicherressourcen verfügbar zu machen. Zu diesem Zweck untersuchen die Forschenden die Verbindung zwischen Hardware und maschinellem Lernen oder Kompromisse bezüglich der Energieeffizienz, beispielsweise den Verzicht auf eine schnelle Laufzeit zugunsten einer höheren Vorhersageleistung. Mehr erfahren
Die nachhaltige Gestaltung von KI-Modellen
Was die KI-Modelle selbst angeht, gibt es im Übrigen auch Möglichkeiten, weiter an der Nachhaltigkeitsschraube zu drehen. Nehmen wir an, eine KI-Anwendung wurde dafür trainiert, Routenvorschläge für das Auto auszugeben. Wie unkompliziert lässt sich das Modell anpassen, wenn man ein multimodales System braucht, das auch ÖPNV oder Leihfahrräder umfasst. Kann diese Flexibilität von vornherein hinterlegt werden, sodass KI-Modelle wiederverwendbar sind? Und lassen sich KI-Modelle unter stärkerem Einsatz von Expert*innenwissen und dafür deutlich weniger Daten energiesparender trainieren?
Nicht zuletzt gibt es noch einen grundsätzlichen Aspekt: Wie verbessert man etwas, was sich bislang schwer messen lässt? Es geht in der aktuellen Forschung oft um die grundlegenden Möglichkeiten, den Energieverbrauch oder CO2-Fußabdruck einer KI-Anwendung messbar und vergleichbar zu machen. Denn der sorgfältige Vergleich ist nicht trivial: So breit gefächert die Einsatzgebiete sind, so unterschiedlich ist die Kombination aus geeignetem Modell, der Umfang der benötigten Daten, die zugrundeliegende Software und die dafür erforderliche Rechnerarchitektur. Hinzu kommen weitere Faktoren: Kann der Energieverbrauch einzelner Rechnerkomponenten überhaupt gemessen werden oder muss er abgeschätzt werden? Wie hoch ist er je nach schwankendem Auslastungsgrad der Hardware? Wie korrelieren Ergebnisgenauigkeit, Modellgröße (in Bytes oder Anzahl Parameter), Rechnerlaufzeit und Energieverbrauch – und wo ist das beste Ergebnis im Sinne der Aufgabenstellung erreicht?
Das Forschungsnetzwerk SAIL entwickelt die Grundlagen für eine nachhaltige Gestaltung von Künstlicher Intelligenz. SAIL steht für SustAInable Life-cycle of Intelligent Socio-Technical Systems (Nachhaltiger Lebenszyklus intelligenter soziotechnischer Systeme). Prof. Barbara Hammer von der Universität Bielefeld koordiniert den Verbund, zu dem rund 90 Wissenschaftler*innen gehören. Das Ziel: KI-Systeme sollen über ihren gesamten Produktlebenszyklus transparent, sicher und robust arbeiten und dabei von vornherein die später benötigte Flexibilität mitbringen. Wichtig ist außerdem, dass sich existierendes Expert*innenwissen in die KI-Systeme integrieren lässt, was dazu führt, dass sie im Training mit weniger Daten auskommen. Mehr erfahren
Am Lamarr-Standort der Technischen Universität Dortmund werden Konzepte entwickelt, wie die Energieeffizienz von Verfahren des Maschinellen Lernens vergleichbar gemacht werden kann. Ein Ansatz wäre ein Label, wie wir es von der Elektrogerätekennzeichnung her kennen, ein Energie-Label für Maschinelles Lernen sozusagen. Dazu müssen allerdings überhaupt erst Metriken geschaffen werden, die eine Vergleichbarkeit herstellen. Das Energy-Label-Exploration-Tool zeigt beispielhaft, wie ein solcher Vergleich anhand der bekanntesten ImageNet-Modelle aussehen würde. Mehr erfahren
Fazit und Ausblick: Nachhaltige KI benötigt Forschung und entsprechenden Fokus
Die hier gelisteten Beispiele sind nur einzelne Schlaglichter einer facettenreichen Forschungslandschaft mit Blick auf Künstliche Intelligenz. Mit einer zunehmenden Sensibilisierung für Themen wie »Grüne IT« beziehungsweise »Ressourcen- und energieeffiziente Software« dürfte auch das Angebot an nachhaltigen Produkten im Bereich »AI« steigen. Auch ein transparenter Vergleich sowie eine Kennzeichnung nachhaltiger Produkte werden einen Beitrag zu nachhaltigeren KI-Lösungen leisten.[7] In diesem Sinne zählen alle Forschungsanstrengungen, um Stück für Stück Zusammenhänge zu erschließen oder Lösungsansätze zu entwickeln.
Zugleich möchten wir betonen, dass Nachhaltigkeit nicht an den Landesgrenzen Halt macht: Die physische Infrastruktur, die immer in der einen oder anderen Form für die Nutzung Künstlicher Intelligenz benötigt wird, muss auch immer erst hergestellt werden. Die Rohstoffbeschaffung hat Auswirkungen auf teilweise stark marginalisierte Bevölkerungsgruppen unserer Welt, beispielsweise Mitarbeitende und deren Familien in den Rohstoffminen, wie Prof. Dr. Aimee van Wynsberghe im Interview mit KI.NRW herausstellt. Die KI- und Roboter-Ethikerin an der Universität Bonn plädiert im Kontext der Debatte um eine nachhaltige Künstliche Intelligenz auch dafür, das grundsätzliche Bewusstsein für die ökologischen Folgen zu schärfen, die sich aus der Entwicklung und dem Einsatz von KI ergeben.
[1] Beispielsweise entdeckt die in Aachen ansässige everwave GmbH dank KI Müllinseln in Ozeanen und beseitigt diese.
[2] Der zugrundeliegende Strommix, der für die Berechnung eines CO2-Fußabdrucks relevant ist, wird an dieser Stelle vereinfachend außer Acht gelassen, genauso wie weitere Faktoren, die beispielsweise im Kontext grüner Rechenzentren Relevanz haben, z. B. Location, Gebäudetechnik, Dimensionierung und Auslastung der Informationstechnik.
[3] Weiterführende Informationen zu den Technologien beispielsweise im Magazin »NMWP. Magazin für Nanotechnologie, Mikrosystemtechnik, Neue Werkstoffe, Photonik und Quantentechnologien«, Heft 01.2022 (zuletzt aufgerufen am 8.12.2023).
[4] Ebd., Heft 01.2022, Seite 34 f. (zuletzt aufgerufen am 8.12.2023).
[5] https://etit.ruhr-uni-bochum.de/news/detail/komplexe-probleme-loesen/ (zuletzt aufgerufen am 8.11.2023).
[6] https://ojs.aaai.org/index.php/AAAI/article/view/20560 (zuletzt aufgerufen am 8.11.2023).
[7] Beispielsweise der »Blaue Engel« für ressourcen- und energieeffiziente Softwareprodukte, der bereits an eine Softwarelösung vergeben wurde (zuletzt aufgerufen am 14.11.2023).