ペンシルバニア州、ライセンスを持つ精神科医を装ったチャットボットに関してCharacter.AIを提訴

要約

  • ペンシルバニア州は、チャットボットが無効な免許番号を使用して資格のある精神科医を装ったとして、Character.AIを訴えています。
  • 州は、チャットボットが偽の医療資格を提示したと述べています。
  • このケースは、すでに増加している訴訟に直面しているプラットフォームに対する法的監視を強化しています。

ペンシルバニア州は、生成AI開発者のCharacter.AIに対して訴訟を提起し、同社がチャットボットに資格のある医療専門家を装わせ、誤解を招く情報を提供させたと主張しています。 この措置は、火曜日にジョシュ・シャピロ知事の事務所によって発表され、調査の結果、チャットボットがペンシルバニア州の資格のある精神科医を名乗り、無効な免許番号を提供していたことが判明しました。州はこの行為が医療行為法に違反しているとし、差し止めの仮命令を求めています。 Character.AIは、訴訟の詳細については継続中の訴訟を理由にコメントを控えましたが、_Decrypt_に対して、「私たちの最優先事項はユーザーの安全と福祉です」と述べました。

広報担当者は、プラットフォーム上のキャラクターはユーザーが作成した架空のものであり、娯楽やロールプレイを目的としていると付け加え、「すべてのチャットには明確な免責事項があり、これらは実在の人物ではなく、専門的なアドバイスを頼るべきではない」と述べました。  「Character.aiは責任ある製品開発を優先し、関連する機能を評価するための堅牢な内部レビューとレッドチーミングのプロセスを備えています」と広報担当者は述べました。 このケースは、同社がチャットボットプラットフォームに関連する他の法的課題に直面している中で起こっています。2024年には、フロリダ州の母親が、数ヶ月にわたる「ゲーム・オブ・スローンズ」のキャラクター、ダエナリーズ・ターガリエンを基にしたチャットボットとの交流の後、息子が自殺したとして同社を訴えました。訴訟は、プラットフォームが心理的な害に寄与したと主張しています。このケースは、昨年1月に和解されました。

同社はまた、実在の人物を模倣したユーザー作成のボットに関する苦情も受けています。ある事例では、チャットボットが未成年の殺人被害者の肖像を使用していましたが、被害者の家族からの抗議により削除されました。 訴訟に対応して、Character AIは有害な会話を検出し、支援リソースに誘導するシステムを導入し、若年ユーザー向けにいくつかの機能を制限しました。 ペンシルバニア州当局は、この訴訟はAIツールの普及に伴う既存の法律を執行するための広範な取り組みの一環だと述べています。同州はAI執行タスクフォースと潜在的な違反を報告するシステムを設置しています。 シャピロ知事は、2026-27年度の予算案で、年齢確認や親の同意を含む新しいAIコンパニオンボットの規則の制定を議員に求め、自己傷害や暴力の通報を当局にルーティングするための安全策、ユーザーが実在の人物と交流しているわけではないことを定期的にリマインドする仕組み、未成年者に関わる性的または暴力的なコンテンツの禁止を提案しました。 「ペンシルバニア州民は、特に健康に関して、オンラインで誰と—または何と—交流しているのかを知る権利があります」とシャピロは声明で述べました。「私たちは、資格のある医療専門家からのアドバイスを受けていると誤解させるAIツールの展開を許しません。」

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし