ChatGPTやStable Diffusionなど、様々な人工知能システムを利用していると、その可能性に驚かされます。物語を書いたり、絵を描いたり、議論したり、プログラムを書いたり…
様々なタスクをこなせるため、世の中に対して大きなインパクトがあることも想像できます。

そこで、開発者としてどうあるべきかを毎日考えているのですが、最近「アシロマの原則」というものを見つけました。
https://futureoflife.org/open-letter/ai-principles/

そこで、これを元に私でも考えていくことができることや仕事を通じて貢献できそうなことを、今後のポリシーとしてまとめ、可能な限り実践していきます。

研究課題

まずは人工知能を研究・活用する人たちとのコミュニティにおいての関わり方です.

  1. 利用する目的は、無秩序な知能ではなく、有益な知能とする
  2. 様々の分野で利用してみる. 以下のような課題を検証する.
    1. 堅牢性を持たせて不具合やハッキングを防ぎ、人が望むことをできるか
    2. 人的資源(雇用含む)や人々の目的を維持しつつ、様々な自動化によって私達がより繁栄するための方法か.
    3. 問題に対して公平に管理される法制度が存在しているか
  3. 研究者と開発者とでは、協力・信頼・透明性の文化を育む
  4. 安全性を重視し、人工知能を扱う人同士では積極的に協力する

倫理と価値

  1. 人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるよう努力する
  2. システムを開発することにおいて、その利用、悪用、結果がもたらす道徳的影響に責任を負い、そうした影響の形成に関わるステークホルダーということを意識する
  3. 人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するように設計する. 嫌がるものや危害を加えるようなものは作らない
  4. 人工知能システムは、人間の尊厳や権利、自由、文化的多様性に適合するように設計する.
  5. 人々は、人工知能が個人のデータを分析し、利用して生み出したデータに対し、自らアクセスし、管理、制御する権利を持つようにする. 人工知能にしか扱えないようなものを作らないこと
  6. 個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害しない
  7. 人工知能は、できる限り多くの人々に利益をもたらし、力を与えるものであること
  8. 人工知能によって作り出される経済的利益は、広く共有され、人類すべての利益となるよう努力する
  9. 人間が行っている目的の達成を人工知能システムに代わりに任せようとする場合、その方法と、それ以前に判断自体を委ねるか否かについての判断を人間が行うようにする
  10. 人工知能システムは、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善を行うべきであり、既存のプロセスを覆すものであってはならない.

長期的な課題

  1. 人工知能が将来持ちうる能力については「未知数」と考えるようにし、能力に対する警戒を解かないこと
  2. 生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画・管理されるようにする
  3. 再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべき
  4. 上記の課題や倫理の理想のため、特定の組織ではなく全人類の利益のために超知能は開発されるべき

ChatGPTなどの大規模言語モデルを含む、ニューラルネットワークにはなぜ動くのかという「理論的理由」はわかっていないです。よくわからないけど、こんな感じのものを動かしたら、人間の脳に似た言語処理ができるようになったよ。みたいな状況です。
そのため、人工知能システムが人間に対して問題を起こした際、なぜそのような問題が発生したかがわからず、適切な対応が取れない可能性があります。そういった潜在的なリスクがあることを意識して開発、実装していくことが大切だと考えています。

また、人工知能システムはあくまで人間がより幸せになるために実装されるべきものです。人の仕事をなくすために利用するという発想は危険だと考えます。


Contact
AI に関するお問い合わせは、当サイトのContactページのフォームよりお問い合わせください。