アップルの研究者は、AIモデルがラベルなしのデータから脳の電気活動の構造を学習する方法を発表しました。これにより、将来的にAirPodsが脳波を解析する可能性があります。
アップルは、来月サンディエゴで開催されるNeurIPS 2025で、AIに関する研究発表とデモを行うと発表しました。
アップルの研究者は、LLM(大規模言語モデル)が音声と動作データを解析し、ユーザーの活動を特定できることを示す研究を発表しました。この技術は、特定のトレーニングなしでも高い精度を持つとされています。
アップルは、AI画像編集モデルの研究を支援するため、40万枚の画像を含むデータセット「Pico-Banana-400K」を公開しました。このデータセットは非商用の研究ライセンスで提供されます。
アップルはAIを活用したバグ予測やテスト自動化に関する3つの研究を発表しました。これにより、開発プロセスの効率化と品質向上が期待されています。
アップルとオハイオ州立大学の研究者は、新しい言語モデル「FS-DFM」を発表しました。このモデルは、従来のモデルよりも少ないステップで高品質な長文を生成できるとしています。
アップルは2025年10月にホノルルで開催される国際コンピュータビジョン会議に参加し、複数の研究を発表することを確認しました。
アップルの研究者は、タンパク質の三次元構造を予測するAIモデル「SimpleFold」を発表しました。このモデルは計算コストを抑えつつ、高い精度を実現することを目指しています。
アップルは、自然言語処理に関する最新の研究成果を紹介するワークショップを開催し、主要な研究領域に関する発表を行いました。
アップルの研究者が共同執筆した新しい研究で、オープンソースの大規模言語モデル(LLM)が自身の作業をチェックすることで性能が大幅に向上したと発表しました。