アップルの研究者は、AIモデルがラベルなしのデータから脳の電気活動の構造を学習する方法を発表しました。これは、将来的にAirPodsが脳波を解析する可能性があるということです。
この研究は、「EEG信号の相対構成を学習するためのペアワイズ相対シフト事前学習」というタイトルで、PAirwise Relative Shift(PARS)と呼ばれる新しい手法を紹介しています。
現在のモデルは、脳活動の段階を示す人間による注釈データに大きく依存していますが、アップルは、生データから異なる脳活動の時間的な間隔を予測するモデルを開発しました。
自己教師あり学習(SSL)は、ラベルなしデータから脳波(EEG)の表現を学習する有望な方法です。これは、睡眠段階や発作検出などの臨床応用における高価な注釈の必要性を軽減するということです。
PARSは、ランダムにサンプルされたEEGウィンドウペア間の相対的な時間シフトを予測する新しいタスクを導入しました。この方法は、既存の方法よりも長距離依存性を学習する可能性があるとしています。
研究結果によれば、PARSで事前学習されたモデルは、ラベル効率の良い学習環境において、既存の事前学習戦略を上回る成果を示しました。
さらに、この研究では、耳に装着するEEGシステムを使用したデータセットも使用されました。これは、将来的にAirPodsがEEGセンサーを搭載する可能性を示唆しています。
2023年には、アップルが「ユーザーの生体信号を測定するウェアラブル電子デバイス」に関する特許を申請したことも報告されています。この特許では、耳EEGデバイスの利点と制限についても言及されています。
ただし、この新しい研究はAirPodsに直接関係するものではなく、ラベルなしのデータから脳波の時間間隔を予測するモデルの可能性を探るものであるということです。
アップルがこのデータを収集するハードウェアと、その後のデータ処理を改善するAIモデルを研究していることは興味深い点です。これが実際に製品や機能として実現するかどうかは、今後の展開を見守る必要があります。
