ChatGPTの登場により、GoogleのBardチャットボットは、社員からの警告にもかかわらず、市場投入が急がれました。
米本国の従業員はGoogleにBardを発売しないよう伝え「病的な嘘つき」「ゾッとする」「役に立たないよりひどい」と批判され、どう考えてももっと時間をかけてプロジェクトを進めるべきでした。
Googleが、OpenAIの登場でジェネレーティブAI革命に取り残されることを懸念し、独自のChatGPTのような技術の立ち上げを急いでいるという話を2月に聞いたことがあります。
その1ヵ月後、Bardは、チャットボットが間違った答えを返すというデモで披露されました。
内部文書と18人の現・元社員へのインタビューから、グーグルは倫理的な約束よりもライバルに追いつくことを優先していた可能性があることが明らかになっています。
社内の安全対策チームから「Bardはリリースする準備ができていない」という警告を受けたにもかかわらず、グーグルは評価を覆し、3月にチャットボットを発売しました。
労働者の嘆願にもかかわらず、Googleは社内の安全チームが提出した、Bardはリリースする準備ができていないと警告するリスク評価を無視しているのです。
同社のAI倫理観は批判され、倫理的な意味を担当するスタッフは、開発中のジェネレーティブAIツールに手を出さないように言われていると主張しています。
2018年に行動規範から「悪になるな」という標語を削除したGoogleは、非倫理的なAI言語システムに関する研究論文を執筆したAI研究者Timnit Gebruを2020年に解雇しています。
同じく論文を執筆した同社のEthical AIチームの共同リーダーであるマーガレット・ミッチェルは、数カ月後に不正行為疑惑により解雇されました。
Googleの元マネージャーであるメレディス・ウィテカーは、ブルームバーグに対し、同社では「AI倫理が後回しにされている」と語っていました。
Googleもマイクロソフトが自社で進めているのと同じペースで、ジェネレーティブAIに遅れをとっています。
BingへのAI機能の統合は、同ブラウザ史上初めて1億人のデイリーアクティブユーザーを突破しただけでなく、サムスンが自社デバイスのデフォルト検索エンジンをGoogleからBingに切り替えることを検討するきっかけにもなりました。