# マイクロソフトのAI部門の責任者は、ニューラルネットワークに意識を与えないよう呼びかけた生物だけが意識を持つことができる。開発者や研究者は、逆のことを前提としたプロジェクトの作業を中止すべきだと、マイクロソフトのAI部門の責任者ムスタファ・スレイマンがCNBCとの会話で述べた。> >「人々がそのような仕事をするべきではないと思います。間違った質問をすれば、間違った答えが返ってきます。私は、これはまさにその場合だと考えています」と、彼はヒューストンでのAfroTech会議で述べました。> > > マイクロソフトのトップマネージャーは、意識を持つことができる人工知能や、いわゆる苦しむことができるAIサービスの創造の見通しに反対しています。8月にスレイマンはエッセイを書き、「見かけ上意識のあるAI」(Seemingly Conscious AI, SCAI)という新しい用語を提案しました。この人工知能は知的存在のすべての特徴を持ち、したがって意識を持っているように見えます。彼は自分自身の知覚のすべての特性をシミュレートしますが、内面的には空です。> >「私が想像したシステムは実際には意識を持っていませんが、人間の知性に似たものを非常に説得力を持って模倣するため、あなたや私が自分の思考について互いに言うことができる主張と区別がつかないでしょう」とスレイマンは書いています。> > > AIに意識を持たせることは危険だと専門家は考えている。これは誤解を助長し、依存の新たな問題を生み出し、私たちの心理的な脆弱性を利用し、新たな極性の次元を導入し、既存の権利に関する議論を複雑にし、社会に対して巨大な新しいカテゴリ誤謬を生じさせる。2023年、スライマンは「The Coming Wave: Technology, Power, and the Twenty-first Century's Greatest Dilemma」を執筆し、AIやその他の新興テクノロジーのリスクを詳しく考察しています。その中で:* 環境的および社会的破壊 — テクノロジーは仕事を非常に早く変革することができるため、人々の慣れ親しんだ役割が消えてしまう可能性があります;* 制御の問題 — AIが進化するにつれて、その働きを人間の利益に沿ったものとして保証することが難しくなる。* サイバー攻撃、社会の操作、その他の脅威に対する技術の適用;* AIを抑制するための技術的および制度的メカニズムを持つ必要性;•国民国家と伝統的な制度の力の弱体化。## AGIの人工知能市場はAGI(汎用人工知能)に向かって進んでおり、人間レベルで任意のタスクを遂行できる能力を持っています。8月にOpenAIのCEOサム・アルトマンは、この用語は「あまり役に立たない」かもしれないと述べました。モデルは急速に進化しており、彼は「ますます」それらに依存するようになると考えています。スレイマンにとって、人工知能が賢くなることと、人間の感情を経験する能力との間に明確な境界を設けることが重要です。> > 「私たちの痛みの肉体的な体験は、私たちを非常に悲しくさせ、ひどく感じさせるものですが、AIは“痛み”を経験しても悲しみを感じることはありません」と彼は言った。> > > 専門家によれば、これは非常に重要な違いです。実際、人工知能は自己と意識についての経験に関する印象—経験に関する見かけ上の物語—を創造しますが、実際にはそれを体験しているわけではありません。> > 「技術的にあなたはそれを知っています、なぜなら私たちはモデルが何をしているのかを見ることができるからです」と専門家は強調しました。> > > 人工知能の分野には、哲学者ジョン・サールによって提唱された生物的自然主義という理論があります。それは、意識が生きた脳のプロセスに依存していると述べています。> > 「私たちが今日、人々に権利を与える理由は、彼らが苦しんでいるので、彼らに害を及ぼしたくないからです。彼らには痛みとそれを避けることを含む選好があります。これらのモデルはそれを持っていません。これはただのシミュレーションです」とスレイマンは言った。> > > トップマネージャーは、AIの意識を研究するアイデアに反対しています。なぜなら、AIは意識を持っていないからです。彼は、Microsoftが自分たちが人工であることを認識するサービスを作っていると言いました。> > 「簡単に言えば、私たちは常に人間の利益のために働く人工知能を作っています」と彼は指摘しました。> > > おさらいすると、10月にAnthropicの専門家たちは、主要なAIモデルが「内省的自己認識」の形を示すことができることを発見しました。彼らは自分自身の内部の「思考」を認識し、説明することができ、場合によってはそれらを操作することさえできます。
マイクロソフトのAI部門の責任者は、AIに意識を持たせることを過大評価しないよう呼びかけた
生物だけが意識を持つことができる。開発者や研究者は、逆のことを前提としたプロジェクトの作業を中止すべきだと、マイクロソフトのAI部門の責任者ムスタファ・スレイマンがCNBCとの会話で述べた。
マイクロソフトのトップマネージャーは、意識を持つことができる人工知能や、いわゆる苦しむことができるAIサービスの創造の見通しに反対しています。
8月にスレイマンはエッセイを書き、「見かけ上意識のあるAI」(Seemingly Conscious AI, SCAI)という新しい用語を提案しました。この人工知能は知的存在のすべての特徴を持ち、したがって意識を持っているように見えます。彼は自分自身の知覚のすべての特性をシミュレートしますが、内面的には空です。
AIに意識を持たせることは危険だと専門家は考えている。これは誤解を助長し、依存の新たな問題を生み出し、私たちの心理的な脆弱性を利用し、新たな極性の次元を導入し、既存の権利に関する議論を複雑にし、社会に対して巨大な新しいカテゴリ誤謬を生じさせる。
2023年、スライマンは「The Coming Wave: Technology, Power, and the Twenty-first Century's Greatest Dilemma」を執筆し、AIやその他の新興テクノロジーのリスクを詳しく考察しています。その中で:
AGIの
人工知能市場はAGI(汎用人工知能)に向かって進んでおり、人間レベルで任意のタスクを遂行できる能力を持っています。8月にOpenAIのCEOサム・アルトマンは、この用語は「あまり役に立たない」かもしれないと述べました。モデルは急速に進化しており、彼は「ますます」それらに依存するようになると考えています。
スレイマンにとって、人工知能が賢くなることと、人間の感情を経験する能力との間に明確な境界を設けることが重要です。
専門家によれば、これは非常に重要な違いです。実際、人工知能は自己と意識についての経験に関する印象—経験に関する見かけ上の物語—を創造しますが、実際にはそれを体験しているわけではありません。
人工知能の分野には、哲学者ジョン・サールによって提唱された生物的自然主義という理論があります。それは、意識が生きた脳のプロセスに依存していると述べています。
トップマネージャーは、AIの意識を研究するアイデアに反対しています。なぜなら、AIは意識を持っていないからです。彼は、Microsoftが自分たちが人工であることを認識するサービスを作っていると言いました。
おさらいすると、10月にAnthropicの専門家たちは、主要なAIモデルが「内省的自己認識」の形を示すことができることを発見しました。彼らは自分自身の内部の「思考」を認識し、説明することができ、場合によってはそれらを操作することさえできます。