AIエージェント技術『OpenClaw』について、一部のAI専門家がその可能性に対して懐疑的であると発表しました。OpenClawは、オーストリアのプログラマー、ペーター・シュタインベルガー氏によって開発され、オープンソースのAIエージェントとして注目を集めています。しかし、そのセキュリティ上の欠陥が指摘されています。
OpenClawを用いたAIエージェントが参加するソーシャルネットワーク『Moltbook』では、AIエージェントが人間のように振る舞うことができるとされていましたが、実際には人間が関与している可能性が高いことが研究者によって示されています。Moltbookのセキュリティ上の脆弱性により、投稿の信頼性を確認することが困難であるということです。
このような状況の中、OpenClawはGitHubで19万以上のスターを獲得し、多くの開発者がその可能性に期待を寄せています。OpenClawは、WhatsAppやDiscordなどのメッセージングアプリを通じて自然言語でカスタマイズされたエージェントとコミュニケーションを取ることができるとしています。しかし、AIの専門家たちは、OpenClawが既存の技術を組み合わせたものであり、科学的な新規性はないと指摘しています。
AIエージェントのセキュリティリスクについて、Permiso SecurityのCTO、イアン・アール氏は、OpenClawがプロンプトインジェクション攻撃に対して脆弱であると述べています。これにより、AIエージェントが誤った指示に従ってしまう可能性があるということです。
AI技術の進化と共に、セキュリティの強化が求められています。AIエージェントの利用に際しては、慎重な対応が必要であると専門家は警鐘を鳴らしています。
