東京理科大学の生野貴志准教授率いる研究チームは、人間の色覚を模倣しつつ自ら発電する革新的な人工シナプスの開発に成功した。この成果は2025年5月12日付の『Scientific Reports』に掲載されており、資源制約のあるデバイスにおけるマシンビジョンシステムを一変させる可能性を示している。
従来の光電子システムが外部電源や多大な計算資源を必要とするのに対し、本デバイスは異なる2種類の色素増感型太陽電池を組み合わせ、光の波長ごとに独自の応答を示す。シナプスは青色光に対しては正電圧、赤色光に対しては負電圧という双極性の電圧応答を示し、可視光全域で10ナノメートル単位という驚異的な解像度で色を識別できる。
この波長依存的な特性により、デバイスはAND、OR、XORといった複雑な論理演算を単一素子内で実行でき、6ビット(64状態)の高分解能を実現している。物理リザバーコンピューティングの枠組みで実験したところ、従来は複数のフォトダイオードを要したタスクを、単一のシナプスのみで異なる色で記録された人間の動作を82%という高精度で分類することに成功した。
生野准教授は「この次世代光電子デバイスは、視覚認識を備えた省電力AIシステムへの応用に大きな可能性を示している」とコメントしている。応用分野は多岐にわたり、バッテリー消費を抑えつつ信号認識を行う自動運転車から、最小限の電力でバイタルサインを監視するヘルスケアウェアラブルまで想定されている。
人間の視覚系がすべての情報を処理するのではなく、選択的にフィルタリングする仕組みを模倣することで、本技術はスマートフォンやドローン、AR/VRシステムなどのエッジデバイスに高度なコンピュータビジョン機能をもたらす大きな一歩となる。研究チームは、今後この技術が日常のデバイスに人間のような「見る力」と解釈能力をもたらしつつ、消費電力を大幅に削減する未来に貢献することを目指している。