奥特曼的“上帝情结”:TED创始人质疑他为何有权塑造人类未来
作者Steve Rosenbaum
译者:核子可乐
策划:褚杏娟
“山姆,对于你参与创造的这项将重塑我们整个物种命运的技术,你需要考虑的是其伦理依据和权威性来源。那么,关于你做这件事的伦理依据和权威性来源是什么?如果你在创造过程中出了错,又打算如何承担这份责任?”
本届温哥华 TED 2025 大会上,悬而未决的问题引发了极大的关注,甚至令 TED 创始人克里斯·安德森向 ChatGPT 缔造者山姆·奥特曼提出了一个终极的问题。然而,这个问题的提出者并非安德森本人,而是由 OpenAI 家模型的竞品 Claude 所提出,反而是对 TED 会议的一根利刺。现场的气氛因此变得非常紧张和焦灼。
奥特曼的回应则是:“我们聊了半个小时,你的问题仍然都是类似的。”
这番回应巧妙地转移了对话。它此次对话犀利地指向我们拥抱 AI 未来的各项弊端——那些被提出、被承认,之后又被巧妙回避的棘手难题。
看着这场问责大戏在舞台上推进,观众们深深被它揭示出的 AI 时代权力形态所震撼。这位掌控着全球用户高达 5 亿、规模甚至超过北美总人口的科技主宰,竟然无法直接回答这份权力来自哪里。
“这是无可避免的现实,一个我们无法回避的趋势。”
奥特曼平静地宣称:“这是无可避免的现实,就像一项全世界都已知晓的基础物理发现,它必将成为真实世界的一部分。”他的证据仿佛在描述明天太阳仍将照样升起。“我们必须谨慎地予以接纳,但要注意消除恐惧,否则,我们将被其他借助AI之力而变得更强的人所击败。”
然而他话语中的宿命论也直接终结了这个意义之问。既然一切无可避免,那又何必还要寻根问底?如果抗拒 AI 技术意味着被“击败”,那么我们自然也就别无选择。
这种思维方式,即 AI 的飞速发展并非出于个别人的选择,而是自然规律的体现,巧妙地免除了奥特曼及其同行在技术开发期间逐渐脱离普通民众的现实责任。
但安德森并没有就此放过他。"问题在于,我一方面认为可能需要安全机构的介入,但另一方面却意识到机身本身恰恰就是风险的来源",同时强调奥特曼在监管问题上存在立场冲突。
安德森援引了托尔金在《魔戒》中的腐败比喻,认为这是硅谷当下的真实写照。埃隆·马斯克曾经说过,人们已经被力量之戒所腐蚀。看着科技企业的CEO们权力不断扩大、掌握的财富日益丰厚,每个人都开始思考:他们是否能够驾驭这切?抑或他们已经被这股力量所吞噬?
奥特曼的回答充满了意味深长。他没有直接为自己开脱,而是将问题抛回给了安德森,转移了批评的焦点,问道:“那你觉得我做得怎么样?尤其是跟那些掌握了巨大权力,而且行事风格一变再变的CEO相比?”
这番话巧妙地扭转了局面,强迫安德森在直接批评对方和就此罢休之间做出选择。安德森选择了一条中间路线,承认奥特曼个人的行为还算得体,但同时也强调了更大的担忧,即人们最担心的是OpenAI公开转向盈利模式。一些人认为,这代表着OpenAI已经被欲望侵蚀了,催动它在潜在经济效益被耗尽之前努力榨出每一分收益。
这番对话也揭示出AI时代下,我们普通人身处的困境:被迫信任科技领袖的个人品质,但他们的企业架构和激励机制却越来越倾向于赤裸裸地追求利润和权力。
“它将深入了解你的内心世界”
在这段对话中,最令人毛骨悚然的桥段也许来自奥特曼对于AI未来的愿景的表述:“它将陪伴人的一生,观察你与ChatGPT的所有对话。也许有一天,如果大家愿意,AI将随时倾听你的声音、观察你的一举一动。它将彻底了解你,成为你的延伸、你的伙伴,成为努力帮助你做得更好、发掘所有潜能的存在。”
安德森将此比作电影《她》中的情节,片中AI会阅读主角的所有电子邮件,代表他做出改变人生的行动。奥特曼并不反对这样的联想。
奥特曼轻描淡写地描述了未来 AI 系统监控我们的具体方式——“观察你的一举一动”,这暴露了其观念与大多数人抗拒持续监控这一现实的根本性脱节。在这个对于技术意义愈发抵触的新时代,“如果大家愿意”这个前提已经显得空洞而无力。
父母悖论:即使父母的爱和关心是最真实的,但他们的言行却常常会让孩子感到无助和沮丧。
安德森问起成为人父是否改变了奥特曼对于潜在风险的观点,并提出了一个思维实验:如果按下一个按钮,你的孩子就能拥有精彩的人生,但同时有着10%的毁灭概率,你会怎么选择?奥特曼立即回应,“问题是并没有这样的选项。当然,如果把场景换到工作这边来,那我的答案是,应该不会按。”
个人风险承受能力与专业风险接受能力之间的脱节,体现的正是 AI 开发中最核心的认知失调。奥特曼绝不会接受自己的孩子承受 10% 的毁灭风险,但 OpenAI 的工作却在为全球数十亿儿童塑造一个充满未知的未来。
正如他所说:“我以前真的很在意这些问题,比如不要搞到世界毁灭。现在我也仍然在意,跟有没有孩子并无关系。”
然而在意归在意,他也从来没有放慢过推进的脚步,他的步伐始终保持着一种坚定的决心和不懈的努力。
开源冲突产生于软件的开源性质和商业性质之间的张力。
奥特曼自豪地宣布:“我们将开发一套极其强大的开源模型,这将给予人们广泛的可能性和自由。然而,我们也不能排除在座的某些人可能会以我们不喜欢的方式加以使用。”
这种对于强大AI模型可能造成的危害表现出的漫不经心态度,与奥特曼之前对于安全的强调和口头认可形成了鲜明对比。结合科技行业,这就相当于“有些人可能会滥用我们即将发布的核发射代码,但我们的创新成果就是这个样子”,这种放任的态度可能会导致灾难性后果。
安德森指出,这种矛盾,并质疑 OpenAI 内部如何防范危险 AI 能力被公开而划定“红线”。奥特曼提到,他们拥有“准备框架”,然而没有具体解释——唯一可以确定的是,公众对于这套框架的定义和执行都没有任何发言权。
“关于人工总体智能(AGI),不同的人在不同的时间点上都将有不同的定义。”
在被问及如何定义通用人工智能(AGI)时,奥特曼透露了一个让人感到震惊的现实:“如果让 10 位 OpenAI 研究人员坐在一起讨论这个定义,得到的答案可能都不止 10 个。”
安德森一针见血地指出问题的核心所在:“然而,这确实引发了担忧,不是吗?毕竟,这是我们承担的使命所在。我们曾经希望率先实现 AGI、承诺会安全达成目标,但我们却一直无法找到明确、清晰地描述这个目标的定义。”
这段对话暴露出了 OpenAI 的核心矛盾:他们正在追求一个定义不明确、甚至可能给整个人类族群带来灭顶之灾的目标,但是同时又向公众保证会“安全”地达成,这种矛盾让人感到困惑和担忧。
随着时代的发展,我们需要不断地探索和探索,找到适合我们的道路,然后才能继续前进。
最发人深省的一点在于,安德森建议召开一场小型专家峰会,为全球制定 AI 安全标准。奥特曼又是怎么回答的?
“当然,但我更关心的问题是,数亿用户作为整体到底觅求什么样的体验和价值。”
这听起来非常民主,但相信很多人都能感受到其中的误导性。用户“想要”的只能是明确给出的选项,而非充满主观发挥空间的随机路线。人们也会“想要”抽烟,但直到几十年后才慢慢意识到这对健康造成的严重摧毁。
目前,我们无法通过投票来确定奥特曼和他的同事们是否应该做出这些重大决定,因为他们已经自行将自己定位为人类技术命运的负责人。
安德森就此评论道:“我不知道该说什么了。非要评论的话,我觉得你让我心生敬畏,因为你打造出了世界上最令人惊叹的成果之一。”
相信更多朋友感受到的是一种深深的恐惧感。不是对奥特曼本人的恐惧,因为他展现出真诚和睿智的气质,始终渴望做出正确的事情;真正让人感到恐惧的是这套制度,它允许少数技术专家做出涉及全球的决策,他们贸然实施着缺乏法理性来源的行动,但行动的后果却由投资者和全体用户来承担。
这场对话中最重要的问题始终悬而未决:山姆·奥特曼或者其他什么人重塑人类命运的伦理依据和权威性来源是什么?这种法理来源的缺失令人不安,但我们却已经在懵懂之间走了很远、走到了现在。
奥特曼观点总结:随着奥特曼的不断演变,观点的多样性和深度不断增加,奥特曼的价值观和道德标准也在不断完善。
AI 对于就业和创意产业的影响,已经成为当前社会的热点话题。随着人工智能技术的不断发展和普及,许多传统的工作岗位开始面临被取代的风险,而新的工作机会也正在不断涌现。对于创意产业来说,AI 的影响更加复杂。虽然 AI 可以帮助创意人士提高工作效率和质量,但是也可能会改变创意人的工作方式和角色的定位。因此,如何有效地将 AI 与创意产业结合,发掘新的工作机会和创意空间,已经成为当前社会的重要课题。
关于 AI 对就业的冲击,人们普遍抱有两种观点:一方面,人们担心自己被取代, AI 的出现将使许多传统职业面临极大的挑战;另一方面,人们将 AI 视为一种新型工具,能够提高市场对于产出的期待,并赋予从业者们更强大的能力,帮助他们取得愈发精彩的成果。
创意作品、知识产权以及向创作者付费:山姆指出,人类的创造力扮演着举足轻重的角色,并承认当前知识产权、合理使用和知情同意等领域存在着挑战。他提出了一种新的商业模式,旨在让那些在风格层面启发了 AI 生成内容的创作者们能够获取公平的回报。
开源与 AI 竞赛,这场激情澎湃的竞赛,不仅仅是一场技术的较量,更是知识的共享、创新精神的激发和人工智能的发展。
OpenAI 对于开源和 DeepSeek 的态度:山姆承认 OpenAI 拥抱开源较晚,但证实公司目前正在开发一款强大且领先的开源模型。他还提到,尽管不可避免会遭到一定滥用,但开源模型确实具有深远的意义。
AI 已经掀起一波发展竞赛:山姆并不认可 AI 已经沦为不负责任竞赛的说法,他声称大多数 AI 厂商都真心关注安全问题,并强调,即使是在竞争压力之下,OpenAI 也始终以谨慎态度规划和处理安全问题。
打造卓越的AI产品,需要不斷推陳出新,緊盯市場趨勢,精通技術架構,投入大量的資源和人力,以創造出具有實際應用價值的AI產品。
专注于产品而非模型原始能力:山姆指出,未来将涌现出许多先进的 AI 模型,但 OpenAI 一直以来优先考虑创造最佳的用户体验,并强调实现个人记忆等功能,旨在随时间推移愈发了解用户,以确保 AI 的实用性。
预期的 AI 突破将会带来深远的影响,改变人类的生活方式和社会结构。随着 AI 技术的不断发展和改进,预期的突破将会引发广泛的讨论和关注。
AI 驱动下的科学发现:山姆表示,下一个重大突破将来自 AI 在科学领域的应用,包括在对抗疾病方面的重大进展,并有可能发现室温超导体等新材料,但他同时指出,物理学理论方面的突破则可能需要更长时间。
自主软件开发:山姆提到,自主软件的编写将为智能体驱动的软件工程领域带来另一个重大飞跃。
随着人工智能(AI)的日益普及和发展,人们开始关注AI安全的担忧。AI系统的安全性不仅关乎数据隐私和个人信息保护,还涉及到国家安全和全球稳定。AI的安全问题可以从多个方面入手,包括数据安全、算法安全、模型安全和系统安全等。数据安全是指保护AI系统中的数据免受未经授权的访问、修改和泄露。算法安全是指保护AI算法免受恶意攻击和篡改。模型安全是指保护AI模型免受攻击和污染。系统安全是指保护AI系统免受攻击和入侵。总之,AI安全是非常重要的,需要我们不斷地探索和解决这些问题,以确保AI的安全和可靠性。
强大 AI 带来的严重风险:山姆公开表达了对 AI 滥用的高度担忧,例如生物恐怖主义、网络安全威胁,以及 AI 可能获得人类无法控制的自我改进能力。
OpenAI 的安全准备框架:山姆详细描述了 OpenAI 在发布 AI 模型之前所采用的系统识别结构化方法和风险管理机制,但同时也承认了公司内部对于具体安全策略仍然存在着不少分歧。
公众焦虑与生存风险:山姆认为,公众对人工智能生存风险的担忧是合理的,但他认为,从古至今,社会一直是通过经验和谨慎的调整,而不是排斥和恐惧来适应新的技术。
在当今的技术发展中,高级 AI 的定义和监管成为一个亟需解决的问题。高级 AI 的出现,带来了前所未有的挑战和机遇,它可以根据自己的判断和决策来影响人类的生活、工作和社会秩序。但是,这也使得人们开始关注高级 AI 的定义和监管问题。
山姆澄清称,ChatGPT 并不能算通用人工智能(AGI),因为它还无法自主学习、自我改进、发现新的科学知识或者独立执行复杂的在线任务。虽然它已经展示出了惊人的智能和能力,但还无法满足AGI的定义要求。然而,山姆也承认,随着人工智能技术的不断发展和改进,AGI的定义和概念也将会有所不同。
AI 监管与许可:山姆改变了其原先的立场,转而支持使用外部安全测试框架,以确保强大的 AI 模型在公开发布前接受认真和科学的评估,以避免潜在的安全风险。
在现代社会中,个人观点、批评与责任之间存在着紧密的联系。个人观点是基于个体经验、知识和价值观念的看法和判断,而批评则是对某个观点或行为的分析和评估。责任则是指个人或组织对自己的行为和言行所承担的义务和后果。个人观点、批评与责任之间的关系是:个人观点会影响批评的方向和标准,而批评则会影响个人观点的变化和修正。责任则是对个人观点和批评的结果所承担的后果和义务。
公众对山姆本人和OpenAI的看法:山姆承认,OpenAI从完全开放转向部分商业化的决策在公众中引发了一定的非议和质疑,同时坦言,这种策略转变也是无奈之举,但他仍然重申了承诺,即以安全的方式发布强大AI的成果。
对于权力和腐败的批评:山姆否认自己被AI带来的财富或权力所腐蚀,坚称自己没有改变,强调OpenAI的战略转型是统筹AI发展的合理举措。
身为人父,对山姆思维产生了深远的影响。他不仅仅是从事 AI 工作的专业人士,更是为孩子的未来承担着更大的责任感。他承认,自己感受到了这种责任的压力,但也希望通过自己的努力,给孩子塑造一个更加积极、更加明亮的未来环境。
关于AI的社会决策:随着人工智能技术的日益成熟和普及,AI开始渗透到社会各个方面,参与决策的过程。AI能够快速地处理大量数据,提供精准的预测和分析结果,从而帮助决策者做出更加明智的决策。但是,这也引发了一些新的问题和挑战,如AI算法的偏见性、数据的可靠性和隐私保护等。因此,需要我们在推广和应用AI技术时,更加关注AI的社会决策和影响,确保AI的发展是有益于人类社会的。
广泛收集用户反馈还是依靠精英峰会:山姆更倾向于从 OpenAI 的数亿用户中收集 AI 安全偏好,而不是仅仅依赖小型专家峰会。这表明 AI 本身有助于更准确地反映公众的价值观和偏好。
对于下一代人的展望,人们开始思考他们将如何生活、工作和发展。随着科技的飞速发展,人们的生活方式、工作方式和社会结构将会发生深远的改变。未来的下一代将会面临着更加复杂的挑战和机遇,需要他们具备更加强大的创新能力、更加广泛的知识面和更加坚定的价值观念。
山姆后代将迎来的世界:山姆描绘了一种新的未来的景象,即孩子们出生之际就与人类更聪明的AI接触。他
还展望了持续创新、资源愈发丰富且无缝融入日常生活的智能 AI 新形态,期待未来几代人清晰地意识到人类局限性的终结,并坦然接受这样的人类与智能 AI 的新形态。
相关链接:
该段落的语言润色如下: 「今天是2025年4月21日,BTIBOR91账号的用户发布了一条新的状态更新。内容是关于btibor91的电影剧情,描述了主人公的Adventure journey。主演:,集数:,时长:,播出平台:,播出时间:。」
萨姆·阿尔特曼的神权 complex:特德·S·安德森问谁让他掌握人类未来的钥匙?