アップルは、長時間動画の分析と理解において優れた性能を発揮する大規模言語モデルを開発したと発表しました。このモデルは、効率的なフレーム選択で動画の内容を理解し、従来のモデルを上回る成果を示しています。
Appleはプライバシー保護機械学習に関するワークショップでの発表を公開しました。差分プライバシーやフェデレーテッド分析の新手法が紹介されています。
アップルの研究者は、SwiftUIで優れたユーザーインターフェースコードを生成するためのLLMを開発したと発表しました。この研究により、LLMが自動フィードバックを通じて自己学習する方法が示されました。
アップルは、大規模言語モデルの応答速度を向上させる技術を開発したと発表しました。この技術は、出力の品質を保ちながら効率を高めることを目的としています。
アップルは2024年に開催された人間中心の機械学習ワークショップの一部動画を公開し、責任あるAI開発への取り組みを強調しました。
アップルとフィンランドのアールト大学が共同で開発したAIモデル「ILuvUI」は、アプリのユーザーインターフェースを視覚と言語で理解する能力を持ち、既存モデルを上回る性能を示しました。
アップルが支援する研究により、行動データを基にしたAIモデルが健康状態を高精度で検出できることが明らかになりました。
アップルとコロンビア大学が共同で開発した研究プロトタイプ「SceneScout」は、視覚障害者に対する街路ナビゲーションの改善を目指しています。AI生成のストリートビュー画像の説明を提供し、ユーザーの特定のニーズに応じた道案内を可能にします。
アップルは、新しいAIモデル「DiffuCode-7B-cpGRPO」を発表しました。このモデルは、従来のオートレグレッシブモデルとは異なり、並行してコードを生成することができます。
Appleが共同執筆した研究により、AIアシスタントがアプリ内行動の影響をどれほど理解しているかが調査されました。研究は、AIエージェントがモバイルUI操作の影響を予測する能力を評価するための枠組みを紹介しています。