ChatGPT

ChatGPT で共有してはいけないもの

時には物事を自分の中に留めておかなければならないこともあります。

ChatGPTについてどう感じようとも、チャットボットが既に存在していることは否定できません。

この信じられないほど強力なツールを突きつけられ、私たちが自問すべきことは「ChatGPTで何ができるのか」から「何をすべきなのか」へと変化しました。

ほとんどの人は、ChatGPTのようなチャットボットを使うことで起こりうる危険性や、ユーザーが被る可能性のあるデータやプライバシーの侵害について、漠然とした認識を持っているのではないでしょうか。

正直なところ、ChatGPTはセキュリティの穴になる可能性があり、製品が公開されて間もない間に、すでにその小規模な例をいくつか目にしています。

ChatGPTは今年初め、有料会員と無料会員が、ボットにログインすることも使うこともできない状態に陥る障害を経験しました。

その後、OpenAIからの投稿で、バグにより他のユーザーの履歴からチャットのタイトルを見ることができるようになっていたことが判明しました。

リスクは何か、その価値はあるのか?

ChatGPTが復活したときにすぐに修正されましたが、同じバグが「特定の9時間の間にアクティブだったChatGPT Plus加入者の1.2%の支払い関連情報を意図せず可視化した可能性がある」ともOpenAIは認めています。

これは、私たちが直面する可能性のあるデータセキュリティの脅威の種類のほんの一例に過ぎません。

あなたはどの時点でAIと共有するのか?

OpenAIのCEOであるSam Altmanは、ChatGPTに依存することのリスクを認め、「今すぐ重要なことをChatGPTに依存するのは間違いだ」と警告しています。

FacebookやTwitterといった他のプラットフォームと同じように、ChatGPTとの距離にアプローチするべきです。

もし、あなたが自分の発言やChatGPTに入力している内容を一般の人に読まれたくないのであれば、その情報をボット、あるいはどんなチャットボットにも明け渡さないことです。

Google BardやBing AIのようなチャットボットのフレンドリーで無邪気な態度は魅力的かもしれませんが、騙されないでください。

特にオプトアウトしない限り、あなたの情報はすべてチャットボットのトレーニングに使われたり、OpenAIで働く他の人間に見られたりしています。

ChatGPTを仕事に使うべきですか?おそらく、そうではないでしょう。

AIを搭載したチャットボットは、メールの下書きやソーシャルメディアのキャプションを考える時間など、生産性を向上させるツールであるという賞賛の声をよく目にします。

すでに多くの人が、ChatGPTや同様のAIボットを使って、仕事上の成果を上げています。

しかし、サムスンの社員がごく短時間ChatGPTを使用したところ、うっかり企業秘密を漏らしてしまい、同社でチャットボットの使用が禁止されることになったので注意が必要です。

新しい制限を守れなかった場合、従業員は懲戒処分を受けることになりますが、AIの手綱を締める大企業はサムスンだけではありません。

AppleもChatGPTの使用を禁止していますし、CitigroupやJPMorganなどの大手銀行も最近同じことを行っています。

仕事中にやらなければならない他のこととのバランスを取りながら、さっさと校正してもらい、コードをチェックしてもらい、長いメールを誰かに書いてもらいたいという誘惑があるのはわかります。

忘れてはならないのは、単にその情報を世に送り出そうというのではないということです。

サムスン社員のように、会社の情報、あるいは自分の個人情報を漏らすような人間にはなりたくないものです。

ChatGPTは会社で使ってもいいの?

どのような場合にChatGPTを使ってもいいのでしょうか?

もし、ワークスペースでのChatGPTの使用を禁止するルールがないのであれば、わからない概念を分解したり、長い文書を要約して読みやすくしたり、公開データを分析したりすることをボットに依頼しても問題はありませんが、AIに与える情報は、より一般的で、機密性の高いものでないことを確認してください。

重要な会議のサマリーを書いていて、その詳細がネットに流出するようなことは避けて下さい。

ブラウザからであろうと、iPhoneでChatGPTを使うのであろうと、ボットにどのようにアプローチしてもセキュリティ上の懸念は残るので、ボットと何を共有するかは慎重に決めてください。

インターネットに接続する必要のない、真のオンデバイスAIツールが登場するまでは、あなたが選んだチャットボットに与える情報が本当に安全であることはありません。

ChatGPTと共有してはいけないものを絞り込むと、簡単な答えは「個人的なもの」です。

友人には話せても、同僚には話せないような情報、そして、これはまだ非常に新しく、非常に不安定な技術であることを忘れないでください。

ChatGPTが持っている情報がどのように使われているのか、その情報が公開される可能性があるのか、次に何が起こるのか、私たちにはわかりません。

ChatGPTは、ちょっと変な感じのする知識豊富な仕事仲間のように扱い、できる限り距離を置いてください。

チャットボットと仲良くすることは必須ではありません。

  • この記事を書いた人

朝倉卍丸

シングルモルトスコッチなどのお土産を持ってきた人を助けるのが好きです。サービスの分割が重要ですが、まあ昔ながらの方法でやりたいこともありますよね。

よく読まれている記事

条件の0=0は全てが正であるを意味するSQL 1

SQLの条件に0=0のような記述を見かけます。 変わった書き方の条件ですが、これは「全てが正である」事を意味しており、結合条件の場合はCROSS JOINと同じです。 下記の例で言えば、結合するsub ...

DISTINCTを使わないで重複排除を考えるSQL 2

SQLのDISTINCTはEXISTSとかGROUP BYでなんとかする事もできます。 DISTINCTは暗黙的なソートがされますが、何のDBを使うにせよ過去のバージョンならともかく、最近のバージョン ...

RFC 5322に準拠させた正規表現言語別 3

RFC5322で定義されている正規表現を、各言語の正規表現に変化させた形になります。 完全な電子メール正規表現は存在しないので、結局のところ何かの公式基準に従っていたとしても、自分が携わるサービスのル ...

-ChatGPT