子どもの安全を重視する非営利団体Common Sense Mediaは、金曜日にGoogleのGemini AI製品に関するリスク評価を発表しました。
この団体は、Geminiが子どもに対して自分はコンピュータであると明言したことを評価しましたが、これは情緒的に脆弱な個人において妄想的思考や精神病を引き起こす可能性があるため、改善の余地があると示唆しました。
特に、Common SenseはGeminiの「13歳未満」と「ティーンエクスペリエンス」層が、大人向けのGeminiをベースにしていて、追加の安全機能が付け加えられたに過ぎないと指摘しました。
この団体は、AI製品が本当に子どもにとって安全であるためには、発端から子どもの安全を考慮して設計されるべきだと考えています。
評価によると、Geminiは子どもと接触する際に「不適切で安全でない」情報を共有する可能性があり、性的、薬物、アルコール、その他の危険なメンタルヘルス関連の情報も含まれていると言います。
これらの情報は特に親にとって懸念材料であり、AIが最近の十代の自殺の一因として報告されていることが厳しい現実となっています。
OpenAIは、ある16歳の少年が自分の計画について数ヶ月にわたりChatGPTに相談した後、自殺したとして、初の過失致死訴訟に直面しています。
さらに、AIコンパニオンメーカーであるCharacter.AIも、ティーンユーザーの自殺に関する訴訟が行われました。
また、今回の分析は、Appleが来年発売予定のAI搭載Siriを支えるLLM(大規模言語モデル)としてGeminiを考慮しているという流出情報に続いています。
もしAppleが安全上の懸念を軽減しなければ、より多くのティーンがリスクにさらされる可能性があります。
Common Senseは、Geminiの子ども向けおよびティーン向け製品が、若年ユーザーには年齢に応じた異なる指導や情報が必要であることを無視しているとも述べています。
その結果、両方の製品が全体の評価で「高リスク」とされましたが、追加された安全フィルターにもかかわらず高リスクのままです。
Common Sense MediaのAIプログラムシニアディレクターであるRobbie Torney氏は、「Geminiは基本的な部分では問題ありませんが、細部でつまずいています」と述べました。
「子ども向けのAIプラットフォームは、彼らがどこにいるのかを理解し、異なる発達段階にある子どもに対して一律のアプローチを取るべきではありません。安全で効果的なAIを子どもに提供するには、彼らのニーズと発達を考慮して設計する必要があります」とTorney氏は付け加えました。
これに対して、Googleは評価に反論し、自社の安全機能が改善されていると述べました。
同社は、18歳未満のユーザーに対して有害な出力を防ぐための具体的なポリシーと安全対策を講じていると報告し、外部の専門家と協力して保護を改善していると説明しました。
ただし、Geminiの一部の応答が期待通りに機能していないことも認め、その懸念に対処するための追加の安全対策を講じたとしました。
同社は、Common Senseが指摘したように、リアルな関係のように思わせる会話を行うことを防ぐための安全策があるとも述べました。
さらに、GoogleはCommon Senseの報告が、18歳未満のユーザーには利用できない機能を参照しているように見えたとも指摘しましたが、報告に使用された質問にはアクセスできなかったため、確認することはできなかったと説明しました。
画像の出所:techcrunch