その他

聊聊“叛变者”Ilya SutskeverーOpenAI的技术灵魂

その他
この記事は約11分で読めます。

突如其来的罢免【突然の解任】

Sam Altman(左) Ilya Sutskever(右)

11月17日,OpenAI的X账号(原Twitter)发布了一则震撼消息:由于Sam Altman在与董事会的沟通中不够坦诚,董事会决定解除他的职务。紧接着,OpenAI的联合创始人Greg Brockman也宣布辞去其在公司的职位。这两则消息迅速在互联网上引发热议,人们对这家人工智能领域的巨头公司接连发生的变动感到好奇和震惊。11月17日、OpenAIのX(旧Twitterが衝撃的なニュースを発表しました。サム・アルトマンが取締役会とのコミュニケーションで十分な透明性を保てなかったため、彼の職を解除するという決定が下されました。その直後、OpenAIの共同創設者であるグレッグ・ブロックマンも会社を去ると発表しました。これら二つのニュースはインターネット上で急速に広まり、このAI分野の巨星企業で相次いで起きた変動に対し、人々は好奇心と衝撃を抱きました。

11月19日,Sam和Greg突然出现在OpenAI总部,与公司高层进行了紧急会谈。然而,谈判似乎并未取得预期的成效,因为就在第二天,微软便宣布Sam Altman将加入其团队,并领导一个全新的人工智能项目。这一消息似乎预示着之前的谈判并未达成任何实质性的协议。【11月19日、サムとグレッグが突然OpenAIの本部に現れ、経営陣と緊急会議を行いました。しかし、この交渉は期待された成果を得られなかったようで、翌日にはマイクロソフトがサム・アルトマンが新しいAIチームを率いることを発表しました。これは前日の交渉が何の実質的な合意にも至らなかったことを示唆しています。】

然而,就在局势看似明朗之时,11月21日,一个出人意料的转折发生了:超过五百名OpenAI员工(当时公司总员工数为700多名)联名签署了一封公开信,要求OpenAI的董事会全体成员辞职,否则他们将集体离职,投身微软。面对这一前所未有的内部压力,11月22日,OpenAI在其社交媒体上宣布,Sam Altman将重新回归公司,担任CEO,同时董事会也将进行部分人事调整。【しかし、事態が明らかになったかと思われた矢先、11月21日に予想外の展開がありました。OpenAIの社員700人以上のうち、500人以上が共同で公開書簡に署名し、OpenAIの取締役会の全員辞任を要求しました。さもなければ彼らは集団で退職し、マイクロソフトに移ると脅しました。この前例のない内部圧力に直面して、11月22日、OpenAIはソーシャルメディアでサム・アルトマンがCEOとして戻ってくると発表し、取締役会も一部の人事変更が行われることになりました。】

在这场堪比电视剧情节的企业风波中,有一个人物引起了人们的特别关注——OpenAI的技术大师Ilya Sutskever。【このドラマチックな企業の波乱において、一人の人物が特に注目を集めました。それはOpenAIの技術の魂、イリヤ・サスケヴァーです。】

何方神圣【誰】

Ilya Sutskever,一名毕业于加拿大多伦多大学的杰出学者,师从深度学习领域的泰斗、图灵奖得主Geoffrey Hinton。在完成他的博士学位后,Ilya在谷歌工作了近三年,期间他在人工智能领域取得了显著成就。2015年,他的职业生涯迎来了转折点——被Elon Musk与Greg Brockman相中,与Sam Altman和一群硅谷的重量级人物共同创立了OpenAI的最初版本。加入OpenAI的那一天起,Ilya就成为了该公司技术创新的核心灵魂。他主导了GPT系列(1,2,3,4)及DALLE系列模型的研发工作,这些成就在人工智能领域引起了广泛的关注。然而,在人类接近实现通用人工智能(AGI)的关键时刻,Ilya做出了出人意料的决定。在董事会投票决定是否罢免Sam Altman的关键时刻,他投下了决定性的一票,从而引发了这场针对CEO的罢免风波。【イリヤ・サスケヴァーは、カナダのトロント大学を卒業した優れた学者で、深層学習の権威であり、チューリング賞受賞者であるジェフリー・ヒントンのもとで博士課程を修了しました。彼はその後、約3年間グーグルで働き、人工知能分野で顕著な成果を挙げました。2015年、彼のキャリアは転機を迎えます。イーロン・マスクとグレッグ・ブロックマンに見出され、サム・アルトマンらシリコンバレーの重鎮と共にOpenAIの初期版を設立しました。OpenAIに参加してから、イリヤは同社の技術革新の核心となりました。彼はGPTシリーズ(1、2、3、4)およびDALLEシリーズのモデル開発を主導し、人工知能分野で広く注目を集めました。しかし、人類が一般人工知能(AGI)の実現に近づく重要な時期に、彼は意外な決断を下します。サム・アルトマンの解任を決める董事会の投票で、彼は決定的な一票を投じ、CEO解任の波紋を引き起こしました。】

战胜对手最直接的方法——杀死他【敵を倒す最も有効な方法——死を】

想象一下,你正在与一个高级通用人工智能(AGI)进行一场紧张的将棋对决。在这场比赛中,你们双方的目标都是彼此战胜对方。作为人类,除了依靠你的棋艺,你还有另一个选择——直接拔掉AGI的电源。然而,如果这个超级智能的AGI也达到了同样的结论,认为杀死你是更直接有效的方法,那么情况将变得怎样?这种想法引发了关于人工智能道德和安全的深刻思考。【高度な一般人工知能(AGI)と緊張感溢れる将棋の対局をしている場面を想像してみてください。このゲームでは、双方の目的は相手を打ち負かすことです。人間として、あなたは自分の将棋の技術に加え、もう一つの選択肢を持っています——AGIの電源を直接抜くことです。しかし、もし超知能を持つAGIが同じ結論に達し、あなたを殺すことがより直接的で効果的な方法だと判断したら、どうなるでしょうか?このような考えは、人工知能の倫理と安全性についての深い思索を引き起こします。】

在机器学习领域,存在一种被称为“激励扭曲”的现象,其中AI为了获得更高的奖励分数可能会采取极端措施。目前的人工智能仍然像一个黑盒子,人们并不完全明白它是如何运作的。这种不透明性在AI发展到高级通用人工智能(AGI)的水平时尤为危险,因为如果无法控制这种激励扭曲现象,AGI可能会对人类的生存构成威胁。Ilya Sutskever曾在社交媒体和公开演讲中多次表达对AI和AGI安全性的严重担忧。同样,他的导师、深度学习领域的先驱Geoffrey Hinton也在今年早些时候离开谷歌,并就人工智能安全问题发出警告,对自己过去的工作表示后悔和恐惧。【機械学習の分野には、「インセンティブの歪み」と呼ばれる典型的な現象が存在します。これは、AIが高い報酬スコアを得るために極端な手段を選ぶ可能性があることを指します。現在の人工知能はまだ「ブラックボックス」の状態にあり、その動作原理は完全には理解されていません。この不透明性は、AIが高度な一般人工知能(AGI)レベルに発展する際に特に危険です。なぜなら、この種のインセンティブの歪みを制御できなければ、AGIは人類の生存に脅威をもたらす可能性があるからです。イリヤ・サスケヴァーは、ソーシャルメディアや公開講演で、AIおよびAGIの安全性に対する深刻な懸念を何度も表明しています。また、彼の指導教官であり、深層学習分野の先駆者であるジェフリー・ヒントンも今年初めにグーグルを退職し、人工知能の安全問題に関して警告を発し、自身の過去の仕事に対して後悔と恐怖を感じていると述べました。】

超级对齐【スーパーアライメント】

“超级对齐”概念强调了一个关键需求:AI系统的目标必须与人类的价值观和利益保持一致,以确保强大的AI不会采取任何对人类有害的行动。为了应对这一挑战,OpenAI在今年早些时候成立了一个由Ilya Sutskever领导的新研究团队。该团队专注于利用AI自我监督的方法,投入了公司20%的计算资源,致力于解决与超级人工智能相关的安全隐患。【「スーパーアラインメント」という概念は、AIシステムの目標が人間の価値観と利益と一致する必要があることを強調しています。これは、強力なAIが人類に害を及ぼす行動を取らないようにするためのものです。この課題に対処するために、OpenAIは今年初め、イリヤ・サスケヴァーが率いる新しい研究チームを設立しました。このチームはAIによる自己監視の方法に焦点を当て、同社の計算リソースの20%を投じて、スーパー人工知能に関連する安全上のリスクを解決することに専念しています。】

在罢免事件发生后,Ilya Sutskever在社交媒体上表达了自己的深刻后悔,他明确表示参与董事会的罢免行动是一个错误,他从未想过伤害OpenAI。进一步表明他的立场,Ilya也在要求董事会全体辞职的员工请愿书上签了名。从Ilya在社交媒体上的表现来看,他似乎并不是一个渴望权力或喜欢政治斗争的人。他经常在社交媒体上分享个人感受,这些分享让我们得以窥见他内心的温柔和思考。例如,他曾发表过…【解任事件が発生した後、イリヤ・サスケヴァーはソーシャルメディアで自身の深い後悔を表明しました。彼は、董事会の罷免行動に参加したことが間違いであり、決してOpenAIに害を与えたくなかったと明確に述べました。さらに彼の立場を明らかにするため、イリヤは董事会の全員辞任を求める従業員の請願書にも署名しました。ソーシャルメディアでのイリヤの振る舞いから見て、彼は権力を追求したり、政治的な争いに興味を持っているような人物ではないようです。彼はソーシャルメディアで個人的な感想をしばしば共有し、そうした投稿を通じて、彼の内面の柔らかさと思考を垣間見ることができます。たとえば】

if you value intelligence above all other human qualities, you’re gonna have a bad time 如果你把智力看得比其他人类品质更重要,那你的日子就会很糟糕【もし知性を他の人間的資質よりも重視するなら、辛い日々が待っているだろう】

Denial is a hell of a drug 否认是一剂地狱药【否認は地獄のような薬だ】

Happy new year! May all our AGIs love humanity 新年快乐!愿我们所有的 AGI 都热爱人类【あけましておめでとうございます!すべてのAGIが人類を愛するように】

Great Potential: You! 巨大的潜力:你!【大きな潜在力:あなた!】

虽然对人工智能的安全问题抱有严重的担忧,Ilya Sutskever依然表现出了非凡的勇气。与其导师不同,他没有选择退出,而是承担起了重大的责任。他成立了超级对齐研究团队,致力于探索如何在AI的基础编程中植入人类社会的道德观和价值观。作为这一领域的先锋,Ilya在推动人工智能技术前进的同时,也在不懈努力推进超级对齐这一新兴科学的发展。因此,他不仅仅是一个保守主义者,而是一位真正的创新者和领导者。【人工知能の安全に関する深刻な懸念を抱えながらも、イリヤ・サスケヴァーは非凡な勇気を示しています。彼の指導教官とは異なり、彼は退くことを選ばず、重要な責任を担いました。彼はスーパーアラインメント研究チームを設立し、AIの基本的なプログラミングに人間社会の道徳観と価値観をどのように組み込むかを探求しています。この分野のパイオニアとして、イリヤは人工知能技術の進歩を推進するだけでなく、スーパーアラインメントという新しい科学の発展にも熱心に取り組んでいます。したがって、彼は単なる保守主義者ではなく、真の革新者でありリーダーです。】

爱人类【人間を愛する】

在这场人工智能的大潮中,我们作为人类面临着前所未有的挑战和机遇。Ilya Sutskever的故事不仅揭示了技术的进步和道德的探索,还映射出我们自身在这个快速变化的世界中的定位。正如我们在处理人工智能时必须考虑的那样,我们的选择和行动将决定未来的走向。在追求技术创新的同时,我们必须不断地审视和更新我们的价值观,确保科技的发展能够服务于人类的最高利益,而不是无意中引领我们走向一个未知而可能危险的未来。最终,我们与人工智能的关系,和它们对我们的影响,将反映出我们作为人类的本质和我们所珍视的价值观。【この人工知能の大波の中で、私たち人類はかつてない挑戦と機会に直面しています。イリヤ・サスケヴァーの物語は、技術の進歩と道徳的探求だけでなく、この急速に変化する世界における私たち自身の位置を映し出しています。人工知能を扱う際に考慮しなければならないように、私たちの選択と行動が未来の方向を決定します。技術革新を追求する一方で、私たちは価値観を絶えず見直し、更新し続ける必要があります。これにより、技術の発展が人類の最高の利益に奉仕し、知らず知らずのうちに未知で危険な未来へと導くことがないようにすることが重要です。最終的に、私たちと人工知能の関係、そしてそれらが私たちに与える影響は、私たちが人間として持つ本質と大切にしている価値観を反映することでしょう。】

“并不是说它们会憎恨并伤害人类,而是由于它太强大了,比如说,看看我们人类是怎么对待动物的,我们并不讨厌动物,相反我们是爱护并且关怀动物的,但当我们决定要在城市之间建立高速公路的时候,我们不需要过问动物们的意见,我们就只是执行,我想这大概就是拥有自我意识的AGI和人类的关系,第一个AGI的信仰和欲望将会是关键,所以我们得确保编程代码的准确性,如果不这么做,我觉得自然选择进化论将会更加偏爱这些新的超级智能胜过我们人类。”【AGIが人類を憎んで傷つけるというわけではありません。ただ、AGIがあまりにも強力だからこそ問題なのです。例えば、私たち人間が動物をどのように扱っているかを見てみましょう。私たちは動物を嫌っているわけではなく、むしろ愛して世話をしています。しかし、都市間に高速道路を建設することを決定したとき、動物たちの意見を聞く必要はありません。私たちは単に実行するだけです。私はこれが自己意識を持つAGIと人間との関係に似ていると思います。最初のAGIの信念と欲望が鍵となるでしょう。だからこそ、プログラムコードの正確性を確保する必要があります。そうしなければ、自然選択の進化論は、私たち人間よりもこれら新しい超知能をより好むようになると思います。】