AIは人間のように扱われるべきですか?

人工知能(AI)はまだ人間のレベルに達していない。しかし、テクノロジーが毎年ますますギャップを埋めるにつれて、多くの倫理的問題が発生しています。

重要な質問の1つは、人工知能は人間とどの程度似ているのかということです。彼らは自分で考えますか、それとも欲望や感情を持っていますか?彼らは人間のような法的権利を持っているべきですか?彼らは仕事を強いられるべきですか、それとも何かがうまくいかなかった場合に責任を負わなければなりませんか?

この記事では、これらの質問などについて詳しく説明します。

AI倫理:なぜ彼らが考えることが重要なのか

AIと機械倫理は、ますます勢いを増している2つの関連分野です。それらは、機械の設計、使用、処理方法など、テクノロジーのいくつかの重要な側面に関連しています。これらの問題のほとんどは、人間に関する安全上の懸念に関連しています。

ただし、AI倫理は、これらの基本的な問題を超えて、より物議を醸す領域に移行し始めています。次の数十年で、潜在的に意識があり、欲望、感情を表現する、または苦しみを経験する可能性のある超インテリジェントAIが開発されたと想像してみてください。人間の意識が何であるか、それがどのように発生するかさえわからないので、それは当初のように聞こえるほど遠い命題ではありません。

そのようなAIをどのように定義して処理するのでしょうか。そして、現在のレベルのAIで現在直面している倫理的な問題にはどのようなものがありますか?

私たちが直面している倫理的ジレンマのいくつかを見てみましょう。

AIは市民権を取得する必要がありますか?

2017年、サウジアラビア政府は、世界で最もリアルなAI駆動ロボットの1つであるソフィアに完全な市民権を付与しました。ソフィアは会話に参加でき、62人の人間の表情を模倣することができます。ソフィアは、パスポートを持った最初の非人間であり、クレジットカードを持った最初の人です。

ソフィアを市民にするという決定は物議を醸しています。それを一歩前進と見なす人もいます。彼らは、人々や規制機関がこの分野の問題にもっと注意を払い始めることが重要であると考えています。 AIはまだ人間に近いものではなく、社会全体がロボット市民の準備ができていないことを述べて、それは人間の尊厳に対する侮辱であると考える人もいます。

市民に与えられた権利と義務のために、議論は白熱します。これらには、投票、税金の支払い、結婚、子供を持つことができることが含まれます。ソフィアが投票を許可されている場合、実際に投票しているのは誰ですか? AIの現状では、投票するのはむしろ彼女の作成者でしょうか?もう一つの痛烈な批判は、ソフィアがサウジアラビアの女性や移民労働者よりも多くの権利を与えられたということです。

AIとIP:彼らは自分たちが作成したものに対する権利を所有すべきですか?

知的財産(IP)とプライバシーの懸念をめぐる議論は史上最高に達し、今では別の懸念があります。 AIは、コンテンツの開発、アイデアの作成、およびIP法の対象となるその他のアクションの実行にますます使用されています。たとえば、ワシントンポストは2016年にヘリオグラフをリリースしました。初年度に約1000の記事を作成したAIレポーター。製薬業界など、いくつかの業界でもAIを使用して大量のデータを精査し、新製品を開発しています。

現在、AIはツールと見なされています。すべてのIPおよび法的権利はその所有者に与えられます。しかし、EUは以前、知的財産法の観点から法人となる第3のエンティティである「電子パーソナリティ」の作成を検討していました。

マシンの所有者にIPが提供されなければ、「創造的な」AIを構築するインセンティブが不足するという意見もあります。 IPがAIに移行した場合、なぜ誰かがそれらを開発するのでしょうか?そして、このため、彼らはイノベーションが不足すると信じています。

AIと仕事の未来

仕事におけるAIの役割は少し難問です。近年、AIが特定の人口統計意図せず偏っていた、採用および解雇アルゴリズムでのAIの使用について物議を醸していることがわかりました。 AIはまた、より高いレベルの人間の仕事、つまり最初の肉体労働、そして今ではより高次の精神労働に徐々に取って代わっています。

これについて何をすべきですか?そして、何らかの形の意識的なAIが開発された場合はどうなりますか?強制的に動作させる必要がありますか?その労働を補償しましたか?付与された職場の権利?等々。

ブラックミラーのあるエピソード(私たちの頭いじることで悪名高いショー)では、グレタと呼ばれる女の子が彼女の意識のデジタルクローンを作成します。クローンは、その目的がグレタの人生のための任務を遂行することであると言われています。しかし、グレタの意識により、クローンは自分自身をグレタと見なします。したがって、クローンが奴隷になることを拒否すると、その作成者はそれを拷問して服従させます。最後に、クローンはGretaで機能します。

AIが人間であると信じている場合、または苦しみを経験している場合、AIに特定の権利を先制的に付与する必要がありますか?

これをさらに一歩進めるために、AIを自由にオフにするか廃止するかを考えてみましょう。現在、問題が発生した場合は、プラグを抜いてAIをオフにするだけです。しかし、AIに法的権利があり、これが不可能になった場合、何が可能になるでしょうか。

超インテリジェントなAIがうまくいかなかった有名な例は、ペーパークリップマキシマイザーです。これは、可能な限り多くのクリップを作成するように設計されたAIです。 AIが十分に強力であることを考えると、人間、そしてすべてをペーパークリップに変換することを決定できると考えられます。

AIは責任を問われるべきですか?

AIは、人間の生活に影響を与える多くの決定にすでに責任があります。実際、AIは人権に直接影響を与える多くの分野ですでに使用されており、多くのAIアルゴリズムがどれほど偏っているように見えるかを考えると心配です。

たとえば、AIは大企業が、誰を仕事に雇うべきかを決定するために使用されます。また、一部の国では、誰が福祉を受けるべきかを決定するために使用されます。さらに心配なことに、それは被告の判決を決定するために警察や裁判所のシステムによって使用されています。そして、それだけではありません。

AIがミスをするとどうなりますか?誰が説明責任を負いますか?それを使用している人は?作成者あるいは、AI自体を罰する必要がありますか(もしそうなら、それはどのように機能しますか)?

AIと人類

AIは決して人間ではありません。しかし、それは意識的であるか、苦しみを感じるか、または欲求と欲求を持っているかもしれません。このようなAIが開発された場合、それを強制的に動作させたり、自由に廃止したり、苦痛をもたらすようなことをしたりすることは非倫理的でしょうか?

AIはまだ揺籃期にありますが、人間の生活に直接影響を与えるもの、時には劇的に影響を与えるものにすでに使用されています。人間の生活に最適なソフトウェアをどのように規制するかを決定する必要があります。AIの生活はそれが実現した場合に発生します。