アップルの研究者たちは、視覚理解と画像生成を統合した新しいマルチモーダルモデル「Manzano」を発表しました。このモデルは、現行の実装における性能と品質のトレードオフを大幅に削減することを目指しています。
Appleは、iOS 26に対応したLiquid GlassデザインをApple Researchアプリに導入したと発表しました。これにより、iPhoneユーザーは最新の健康研究に貢献できます。
アップルの研究者は、AIモデルを用いて暗所での写真撮影を大幅に改善する技術を開発したと発表しました。新たな手法により、カメラの画像処理パイプラインに統合された拡散モデルが、センサーの生データから詳細を復元します。
アップルは、画像の理解、生成、編集を単一のモデルで行うことができる「UniGen 1.5」を発表しました。このモデルは、強化学習を用いた報酬統合により、画像編集能力を強化しています。
アップルは、2D写真から1秒以内にフォトリアリスティックな3Dシーンを再現するモデル「SHARP」を発表しました。このモデルは、単一の画像から3Dガウス表現を予測し、リアルタイムで高解像度の画像を生成することが可能です。
アップルの新たな研究が、AIを活用してApple Watchの光学センサーからより深い心臓データを抽出する可能性を示しました。この研究は、心血管パラメータを非侵襲的に監視する方法を探求しています。
アップルの研究者は、AIモデルがラベルなしのデータから脳の電気活動の構造を学習する方法を発表しました。これにより、将来的にAirPodsが脳波を解析する可能性があります。
アップルは、来月サンディエゴで開催されるNeurIPS 2025で、AIに関する研究発表とデモを行うと発表しました。
アップルの研究者は、LLM(大規模言語モデル)が音声と動作データを解析し、ユーザーの活動を特定できることを示す研究を発表しました。この技術は、特定のトレーニングなしでも高い精度を持つとされています。
アップルは、AI画像編集モデルの研究を支援するため、40万枚の画像を含むデータセット「Pico-Banana-400K」を公開しました。このデータセットは非商用の研究ライセンスで提供されます。