Google

米本国Google社員AIチャットボットBardを「嘘つき、役立たず、屈辱的」と酷評

ChatGPTの登場により、GoogleのBardチャットボットは、社員からの警告にもかかわらず、市場投入が急がれました。

米本国の従業員はGoogleにBardを発売しないよう伝え「病的な嘘つき」「ゾッとする」「役に立たないよりひどい」と批判され、どう考えてももっと時間をかけてプロジェクトを進めるべきでした。

Googleが、OpenAIの登場でジェネレーティブAI革命に取り残されることを懸念し、独自のChatGPTのような技術の立ち上げを急いでいるという話を2月に聞いたことがあります。

その1ヵ月後、Bardは、チャットボットが間違った答えを返すというデモで披露されました。

内部文書と18人の現・元社員へのインタビューから、グーグルは倫理的な約束よりもライバルに追いつくことを優先していた可能性があることが明らかになっています。

社内の安全対策チームから「Bardはリリースする準備ができていない」という警告を受けたにもかかわらず、グーグルは評価を覆し、3月にチャットボットを発売しました。

労働者の嘆願にもかかわらず、Googleは社内の安全チームが提出した、Bardはリリースする準備ができていないと警告するリスク評価を無視しているのです。

同社のAI倫理観は批判され、倫理的な意味を担当するスタッフは、開発中のジェネレーティブAIツールに手を出さないように言われていると主張しています。

2018年に行動規範から「悪になるな」という標語を削除したGoogleは、非倫理的なAI言語システムに関する研究論文を執筆したAI研究者Timnit Gebruを2020年に解雇しています。

同じく論文を執筆した同社のEthical AIチームの共同リーダーであるマーガレット・ミッチェルは、数カ月後に不正行為疑惑により解雇されました。

Googleの元マネージャーであるメレディス・ウィテカーは、ブルームバーグに対し、同社では「AI倫理が後回しにされている」と語っていました。

Googleもマイクロソフトが自社で進めているのと同じペースで、ジェネレーティブAIに遅れをとっています。

BingへのAI機能の統合は、同ブラウザ史上初めて1億人のデイリーアクティブユーザーを突破しただけでなく、サムスンが自社デバイスのデフォルト検索エンジンをGoogleからBingに切り替えることを検討するきっかけにもなりました。

  • この記事を書いた人

九十九史恩

キーを叩いていないときは、都会や田舎の風景を探検しています。

よく読まれている記事

条件の0=0は全てが正であるを意味するSQL 1

SQLの条件に0=0のような記述を見かけます。 変わった書き方の条件ですが、これは「全てが正である」事を意味しており、結合条件の場合はCROSS JOINと同じです。 下記の例で言えば、結合するsub ...

DISTINCTを使わないで重複排除を考えるSQL 2

SQLのDISTINCTはEXISTSとかGROUP BYでなんとかする事もできます。 DISTINCTは暗黙的なソートがされますが、何のDBを使うにせよ過去のバージョンならともかく、最近のバージョン ...

RFC 5322に準拠させた正規表現言語別 3

RFC5322で定義されている正規表現を、各言語の正規表現に変化させた形になります。 完全な電子メール正規表現は存在しないので、結局のところ何かの公式基準に従っていたとしても、自分が携わるサービスのル ...

-Google