Ein Forschungsteam unter der Leitung von Associate Professor Takashi Ikuno von der Tokyo University of Science hat eine revolutionäre künstliche Synapse entwickelt, die das menschliche Farbsehen nachahmt und gleichzeitig ihren eigenen Strom erzeugt. Die am 12. Mai 2025 in Scientific Reports veröffentlichte Studie zeigt, wie diese Technologie maschinelle Bildverarbeitungssysteme in ressourcenbeschränkten Geräten transformieren könnte.
Im Gegensatz zu herkömmlichen optoelektronischen Systemen, die externe Energiequellen und erhebliche Rechenressourcen benötigen, integriert dieses selbstversorgende Gerät zwei verschiedene farbstoffsensibilisierte Solarzellen, die jeweils unterschiedlich auf verschiedene Lichtwellenlängen reagieren. Die Synapse zeigt bipolare Spannungsantworten – positiv bei blauem Licht und negativ bei rotem Licht – und ermöglicht so eine bemerkenswerte Farbdifferenzierung mit einer Auflösung von 10 Nanometern im sichtbaren Spektrum.
Dieses wellenlängenabhängige Verhalten erlaubt es dem Gerät, komplexe logische Operationen wie AND, OR und XOR innerhalb einer einzigen Komponente durchzuführen und dabei eine Sechs-Bit-Auflösung mit 64 unterscheidbaren Zuständen zu erreichen. Im Test innerhalb eines physischen Reservoir-Computing-Frameworks klassifizierte das System menschliche Bewegungen, die in verschiedenen Farben aufgenommen wurden, mit einer beeindruckenden Genauigkeit von 82 % – und das mit nur einer einzigen Synapse, während herkömmliche Ansätze mehrere Photodioden benötigen.
„Die Ergebnisse zeigen ein großes Potenzial für den Einsatz dieses neuartigen optoelektronischen Bauteils in stromsparenden KI-Systemen mit visueller Erkennung“, betont Dr. Ikuno. Die Einsatzmöglichkeiten der Technologie reichen von autonomen Fahrzeugen, die Verkehrszeichen effizient erkennen und dabei Akkuleistung sparen, bis hin zu Wearables im Gesundheitsbereich, die Vitalparameter mit minimalem Energieverbrauch überwachen.
Indem das System das selektive Filterprinzip des menschlichen Sehapparats nachahmt, anstatt jedes Detail zu verarbeiten, markiert diese Innovation einen bedeutenden Schritt hin zu fortschrittlichen Computer-Vision-Fähigkeiten für Edge-Geräte wie Smartphones, Drohnen und AR/VR-Systeme. Das Forschungsteam sieht in dieser Technologie einen Beitrag zu einer Zukunft, in der Alltagsgeräte die Welt ähnlich wie Menschen wahrnehmen und interpretieren können – jedoch mit deutlich geringerem Energiebedarf.