Skip to Main Content

生成AIの学術利用に関する実践的ガイド: 倫理と限界を考慮したアプローチ: データの安全性に関する規制

本ガイドは、AI、学術応用におけるLLMの発展、国内外の関連法規を簡潔に理解し関連する課題に対処するための示唆を提供します。

個人情報の流出

2022年以降、生成AIツール「ChatGPTOpen AI, Inc.)」は人々の生活に浸透し、多くのメリットや個々のユーザーに合わたアプリケーションを提供しています。特に、2023315日本経済新聞によると、生成AIツールはアメリカの司法試験でトップ合格に相当するスコアを達成し、日本の司法試験でも会社法の試験に合格したといいます。この生成AIツールのアップデート・バージョンは、学術的知識を扱う際の精度と安全性の向上も約束しており、特に学術関係者には有望です。言語翻訳、文法チェック、内容要約の可能性を秘めた生成AIツールは、学術研究の効率を高めるでしょう。

 

 

 

 

 

 

 

 

 

 

 

 

しかし最近、AIによって処理される個人情報の安全性に関して懸念が浮上しています。日本政府の個人情報保護委員会202362日に警告を発し、生成AIサービスは様々なソース(ウェブサイトやブログなど、インターネット上だけで利用可能な情報源のこと)から入出力される情報は、サービスの開発・改善のために使用される可能性があるため、ユーザーに関連するリスクを考慮するよう助言しました。ここでは、AIシステムに個人情報、機密情報の入力は避けた方が良いと規定しています。

プライバシーを守りながらAIツールを使う方法

次のポイントに気を付けながらAIツールを使いましょう:

🌟 利用規約を確認する:生成AIサービスのデータ収集ポリシーを使用前に確認するのは面倒ですが、努力する価値はあります。
🌟 設定とデータコントロールを調整する: 選択したAIツールで、設定とデータコントロールに進みましょう。例えば、ChatGPTのトレーニングに自分の会話を使用するのを止めることができますが、同時にチャット履歴機能にアクセスできなくなります(出典:Wired 2023年7月16日)。

🌟 未完成の研究プロジェクトの詳細や銀行口座情報を教えることは、どちらも安全ではありません。

🌟 友人というよりは、遠くの知り合いのように接したほうがベターです。