Open AI、AIの安全性に関するアプローチを公開

ニュース

2023年4月5日(現地時間) – Open AIは、AIの安全性に関するアプローチをブログで公開しました。

最近では、個人情報保護の観点から欧州やカナダなどで規制強化の検討が行われています。焦点は少し違いますが、日本でも文科省で学校向けChatGPT指針について検討されているようです。今回の「AIの安全性に関するアプローチ」の公開はこういった各国の動きに対して行われたものと思われます。

以下、公開された文章の翻訳となります。

AIの安全性に関するアプローチ

OpenAIは、強力なAIを安全かつ広く有益なものにすることにコミットしています。私たちのAIツールが、現代の人々に多くの利益をもたらしていることを理解しています。世界中のユーザーから、ChatGPTは生産性を高め、創造性を高め、自分に合った学習体験を提供するのに役立っていると聞いています。しかし、他のテクノロジーと同様に、これらのツールには実際のリスクが伴うことも認識しているので、あらゆるレベルで安全性がシステムに組み込まれるように取り組んでいます。

より安全性を高めたAIシステムの構築

新しいシステムをリリースする前に、私たちは、厳密なテストを実施し、外部の専門家からフィードバックを得て、人間のフィードバックによる強化学習などの技術でモデルの振る舞いを改善し、幅広い安全対策や監視システムを構築します。

例えば、私たちの最新モデルであるGPT-4のトレーニングが終了した後、公開する前に組織全体で6ヶ月以上にわたって、より安全で整合性のあるものにするために取り組みました。

私たちは、強力なAIシステムは厳格な安全性評価の対象となるべきだと考えています。このような取り組みが採用されるようにするためには、規制が必要であり、私たちは政府と積極的に協力し、そのような規制の最適な形態について協議しています。

現実世界での使用から学び、セーフガードを改善

私たちは、展開前に予見可能なリスクを防止するために努力していますが、ラボで学ぶことには限界があります。広範な研究とテストにもかかわらず、私たちは人々が技術をどのように有効活用するか、また乱用するかのすべてを予測することはできません。そのため、より安全なAIシステムを作り、リリースしていくためには、実際の使用から学ぶことが重要な要素であると考えています。

私たちは、十分なセーフガードを備えた新しいAIシステムを、着実に広がる人々に慎重かつ段階的にリリースし、学んだ教訓に基づいて継続的に改善を行っています。

私たちは、自社サービスとAPIを通じて最も高性能なモデルを提供し、開発者が直接アプリにこの技術を組み込むことができるようにしています。これにより、悪用がどのように見えるかについての理論だけでなく、悪用の監視や対策を行い、システムが悪用される現実の方法に対応する緩和策を継続的に構築できます。

現実世界での使用により、私たちの技術の多くの有益な使用を可能にしながらも、人々に対して真のリスクをもたらす行動に対して、より繊細なポリシーを開発することができました。

重要なのは、私たちは社会がますます高度なAIに適応し、更新する時間を持つ必要があると考えており、この技術に影響を受けるすべての人がAIのさらなる発展において重要な意見を持つべきだと考えています。反復的な展開は、さまざまな利害関係者がAI技術の導入に関する議論に、これらのツールを直接経験していない場合よりも効果的に参加できるように支援してくれました。

子供たちの保護

私たちの安全対策の重要な焦点のひとつは、子どもたちを守ることです。私たちは、AIツールの利用を18歳以上、または保護者の承認を得た13歳以上に義務付けており、認証オプションも検討しています。

当社の技術を、憎悪的、嫌がらせ、暴力的、アダルトなコンテンツなどのカテゴリーに含まれるものを生成するために使用することは許可されていません。最新モデルのGPT-4は、GPT-3.5に比べて禁止されたコンテンツに対するリクエストに対応する可能性が82%低くなっており、不正使用に対処するための堅牢なシステムを確立しています。GPT-4は現在、ChatGPT Plusの加入者に利用可能であり、今後時間をかけてさらに多くの方にご利用いただけるようにしたいと考えています。

私たちは、モデルが子供に害を及ぼすコンテンツを生成する可能性を最小限に抑えるために多大な努力をしています。たとえば、ユーザーが子どもの性的虐待の画像を当社の画像ツールにアップロードしようとした場合、それをブロックし、全米行方不明児童・被虐待児童センター(National Center for Missing and Exploited Children)に報告します。

デフォルトの安全対策に加えて、非営利団体Khan Academyのような開発者と協力し、AIを活用したアシスタントを生徒向けのバーチャル家庭教師および教師向けの教室アシスタントとして機能させるために、彼らのユースケースに合わせた安全対策を実施しています。また、このような機能を求める開発者やユーザーをより良くサポートするために、開発者がモデルの出力に対してより厳しい基準を設定できるようにする機能にも取り組んでいます。

プライバシーの尊重

私たちの大規模言語モデルは、一般に公開されているコンテンツ、ライセンス付きコンテンツ、および人間のレビュアーが生成したコンテンツを含む幅広いテキストコーパスでトレーニングされています。私たちは、サービスの販売、広告、人々のプロフィール作成のためにデータを使用することはありません。データは、私たちのモデルをより役立つものにするために使用します。例えば、ChatGPTは、人々との会話を通じてさらに学習して改善されます。

私たちの学習データの一部には、インターネット上で公開されている個人情報も含まれていますが、私たちはモデルが世界について学ぶことを望んでおり、個人のプライバシーについて学ぶことは望んでいません。そこで、可能な限り学習データセットから個人情報を削除し、モデルを微調整して個人情報に対するリクエストを拒否し、個人情報の削除リクエストに対応するようにしています。これらのステップにより、モデルが個人の個人情報を含む回答を生成する可能性を最小限に抑えます。

事実の正確性の向上

今日の大規模な言語モデルは、ユーザーが提供するテキスト入力を含む、過去に見たパターンに基づいて次の一連の単語を予測します。場合によっては、次に最も可能性の高い単語が事実上正確でないことがあります。

事実の正確性の向上は、OpenAIや他の多くのAI開発者にとって重要な焦点であり、進歩を遂げています。不正確として報告されたChatGPTの出力に対するユーザーからのフィードバックを主要なデータソースとして活用することで、GPT-4の事実の正確性を向上させています。GPT-4は、GPT-3.5に比べて事実に基づいた内容を生成する確率が40%高くなっています。

ユーザーがツールを使用するために登録する際、私たちはChatGPTが常に正確でない可能性があることをできるだけ透明に伝えるよう努めています。ただし、根拠のない出力の可能性をさらに減らし、これらのAIツールの現在の限界について一般の人々に教育するためには、まだやるべきことがたくさんあることを認識しています。

継続的な研究と関与

AIの安全性に関する懸念を解決するための実用的なアプローチは、効果的な緩和策や整合性技術の研究にさらなる時間とリソースを費やし、それらを実際の悪用に対してテストすることだと考えています。

重要なのは、AIの安全性と能力の向上は同時に進めるべきだとも考えていることです。ここれまでで最高の安全性は、最も能力の高いモデルと共に実現されました。それらはユーザーの指示に従うのが上手で、より簡単に誘導や「ガイド」ができるからです。

私たちは、より能力の高いモデルの作成と展開には慎重になり、AIシステムが進化するにつれて安全対策を強化し続けます。

GPT-4の展開を6か月以上待って、その能力、利点、リスクをよりよく理解するために時間をかけましたが、AIシステムの安全性を向上させるためには、それ以上の時間が必要なこともあります。そのため、政策立案者やAIプロバイダは、AIの開発と展開がグローバルスケールで効果的に管理され、誰も安全性を犠牲にして先を急がないようにする必要があります。これは、技術的および制度的な革新が必要な困難な課題ですが、私たちは積極的に貢献したいと考えています。

また、安全性問題に対処するためには、AIシステムの振る舞いの範囲を含め、広範な議論、実験、関与が必要です。私たちはこれまでも、今後も関係者間の協力とオープンな対話を促進し、安全なAIエコシステムを構築するために努力していきます。


原文ページへ

コメント

Translate »
タイトルとURLをコピーしました