如今,在推出ChatGPT一年多之后,2023年最大的AI故事可能与其说是技术本身,不如说是OpenAI董事会对其快速发展的戏剧性报道。在奥特曼被赶下台并随后复职担任CEO期间,GenAI进入2024年的潜在紧张局势显而易见:AI处于巨大分歧的中心,一方是完全接受其快速创新步伐的人,另一方是由于涉及的许多风险而希望它放缓的人。
这场在科技界被称为e/acc vs.Decels的辩论自2021年以来一直在硅谷流传,但随着AI在权力和影响力上的增长,理解分歧的双方变得越来越重要。
以下是一些关键术语的入门读物,以及一些塑造AI未来的知名参与者。
e/acc与技术乐观主义
术语“e/acc”代表有效的加速主义。
简而言之,那些支持e/acc的人希望技术和创新尽可能快地发展。
这一概念的支持者在关于e/acc的第一篇帖子中解释道:“科技资本可以带来意识的下一次进化,创造不可想象的下一代生命形式和基于硅的意识。”
在AI方面,“AI”,或称AGI,是这里辩论的基础。AGI是一种超级智能的AI,它非常先进,可以做得和人类一样好,甚至比人类做得更好。AGI也可以改进自己,创造一个无限的反馈循环,具有无限的可能性。
一些人认为AGI将拥有直到世界末日的能力,变得如此聪明,以至于它们找到了如何消灭人类的方法,但e/acc的爱好者选择关注AGI可以提供的好处。创始的e/acc子栈解释说:“没有什么能阻止我们为活着的每一个人创造财富,除了这样做的意愿。”
e/acc Start的创始人一直笼罩在神秘之中,但是@basedbeffjezos,可以说是e/acc最大的支持者,最近在他的身份被媒体曝光后透露自己是Guillaume Verdon。
Verdon之前曾在Alphabet、X和谷歌工作,现在他正在致力于他所说的“AI曼哈顿项目”,并在X上说:“这不是e/acc的结束,而是一个新的开始。在这里,我可以站出来,让我们的声音在X之外的传统世界被听到,并利用我的资历为我们社区的利益提供支持。”
Verdon也是科技初创公司Extrotic的创始人,他将该公司描述为“通过利用热力学物理,在物理世界中为生成性AI构建终极基础。”
顶级风投的AI宣言
最著名的e/acc支持者之一是安德森-霍洛维茨公司(Andreessen Horowitz)的风险投资家马克·安德森,他此前曾称韦尔登为“科技乐观主义的守护神”。
技术乐观主义就像它听起来那样:信徒认为更多的技术最终会让世界变得更美好。安德森撰写了《技术乐观主义宣言》,这是一份5000多字的声明,解释了技术将如何赋予人类力量,并解决所有物质问题。安德森甚至说:“AI的任何减速都会以生命为代价”,如果不发展到足以防止死亡的程度,这将是一种“谋杀形式”。
他写的另一篇技术乐观主义文章《为什么AI将拯救世界》被Meta的首席AI科学家Yann LeCun转发,他因在AI方面的突破而获得著名的图灵奖,被称为“AI教父”之一。
LeCun在X杂志上给自己贴上了“人文主义者”的标签,他认同积极的和规范的积极技术乐观主义。
LeCun最近表示,他预计AI在很长一段时间内都不会到来,他在公开场合与那些他所说的“怀疑当前的经济和政治机构,以及整个人类是否有能力永远使用AI”的人形成了鲜明的对比。
Meta对开源AI的拥抱奠定了LeCun的信念,即这项技术将提供更多的潜力,而不是有害的,而其他人则指出了像Meta这样的商业模式的危险,这种模式正在推动将广泛可用的新一代AI模型置于许多开发者手中。
AI协调和减速
今年3月,Encode Justice和未来生活研究所(Future Of Life Institute)发表了一封公开信,呼吁“所有AI实验室立即暂停对比GPT-4更强大的AI系统的培训至少六个月。”
这封信得到了科技界知名人士的支持,如埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克。
OpenAI的CEO奥特曼在4月份的一次麻省理工学院活动中发表了这封信,他说:“我认为谨慎行事,对安全问题越来越严格真的很重要。我认为这封信不是解决这个问题的最佳方式。”
当OpenAI董事会大戏上演时,奥特曼再次卷入了这场战斗,OpenAI非营利性部门的原始董事们越来越担心进展的速度及其宣称的使命,即确保通用人工智能-通常比人类更聪明的AI系统-造福全人类。
公开信中的一些想法是减速的关键,也是AI减速的支持者。Decel希望进展放慢,因为AI的未来是危险和不可预测的,他们最大的担忧之一是AI的一致性。
AI协调问题解决了这样一种想法,即AI最终将变得如此智能,以至于人类将无法控制它。
“我们作为一个物种的统治地位是由我们相对优越的智力驱动的,这给其他物种带来了有害的后果,包括灭绝,因为我们的目标与他们的目标不一致。我们控制着未来——动物园里有黑猩猩。先进的AI系统也同样可以影响人类。“机器智能研究所的CEO Malo Bourgon说。
AI协调研究,如MIRI的,旨在训练AI系统,使其与人类的目标、道德和伦理相结合,这将防止对人类的任何生存风险。“核心风险在于创造比我们聪明得多的实体,目标错位,其行动不可预测和无法控制。”Bourgon说。
政府和AI的世界末日问题
战略风险委员会CEO、前五角大楼官员克里斯汀·帕特莫尔将她的职业生涯献给了降低危险情况的风险,她最近告诉记者,当我们考虑到AI如果被用来监督核武器可能导致的“大规模死亡”时,这是一个需要立即关注的问题。
但她强调,“盯着问题看”不会有任何好处,“关键是要解决风险,找到最有效的解决方案,”她说。她补充说:“这是一项纯粹的两用技术。没有哪种情况下,AI更像是一种武器,而不是一种解决方案。”例如,大型语言模型将成为虚拟实验室助手,加快医学进程,但也会帮助邪恶的行为者识别最好、最具传播性的病原体用于攻击。这是AI无法阻止的原因之一,她说。“放慢速度不是解决方案的一部分。”帕特莫尔说。
今年早些时候,她的前雇主国防部在使用AI系统时表示,循环中永远会有一个人。她说,这是一种应该在任何地方都采用的协议。“AI本身不可能是权威,”她说。我们需要信任这些工具,或者我们不应该使用它们,但我们需要将它们与环境联系起来。人们普遍缺乏对这个工具集的了解,因此过度自信和过度依赖的风险更高。
政府官员和政策制定者已经开始注意到这些风险。今年7月,拜登-哈里斯政府宣布,它已获得AI巨头亚马逊、Anthropic、谷歌、Inflect、Meta、微软和OpenAI的自愿承诺,将“朝着安全、可靠和透明的AI技术发展方向迈进。”
就在几周前,拜登总统发布了一项行政命令,进一步建立了AI安全和安保的新标准,尽管社会上的利益攸关方团体对其局限性感到担忧。同样,英国政府在11月初引入了AI安全研究所,这是第一个专注于导航AI的国家支持组织。
在全球对AI霸主地位的争夺中,以及与地缘政治竞争的联系中,中国正在实施自己的一套AI护栏。
负责任的AI承诺和怀疑
OpenAI目前正在研究SuperAlign,目标是在四年内解决超智能Align的核心技术挑战。
在亚马逊最近举行的亚马逊网络服务Re:Inventt 2023大会上,它宣布了AI创新的新能力,并在整个公司内实施了负责任的AI保障措施。
AWS负责AI的负责人Diya Wynn表示:“我经常说,负责任的AI不应被视为一个单独的工作流程,而应最终融入我们的工作方式,这是商业上的当务之急。”
根据AWS委托Morning Consult进行的一项研究,负责任的AI对59%的商业领袖来说是越来越重要的商业优先事项,约一半(47%)的人计划在2024年比2023年更多地投资于负责任的AI。
尽管考虑到负责任的AI可能会减缓AI的创新步伐,但像永利这样的团队认为自己正在为更安全的未来铺平道路。“公司看到了价值,并开始优先考虑负责任的AI,”韦恩说,因此,“系统将变得更安全、更有保障、更具包容性。”
Bourgon并不信服,他说,像政府最近宣布的那些行动“远远不是最终需要的”。
他预测,AI系统很可能最早在2030年就会发展到灾难性的水平,政府需要准备好无限期停止AI系统,直到领先的AI开发人员能够“有力地证明他们系统的安全性”。
还没有评论,来说两句吧...