Meta和IBM发起了一个名为“人工智能联盟”(AI Alliance)的新组织,主张以“开放科学”的方式开发人工智能,推动人工智能领域的开放创新和科学研究。这让它们与竞争对手谷歌、微软和 ChatGPT 开发者 OpenAI 形成了对立,分歧在于是否采用能使底层技术广泛获取的方式构建人工智能。安全问题是争论的核心,但谁能从人工智能的进步中获利也同样重要。
图片来源:https://www.businessinsider.com/meta-ibm-ai-alliance-advocate-open-source-science-approach-2023-12
“Open-source(开源)”一词来源于一种已有数十年历史的软件开发实践,即代码免费或可广泛获取,供任何人检查、修改和构建。开源人工智能涉及的不仅仅是代码,计算机科学家对其定义也不尽相同,这取决于技术的哪些组成部分是公开的,以及是否存在限制其使用的限制。
由IBM和Meta牵头的人工智能联盟(AI Alliance),成员包括戴尔、索尼、芯片制造商AMD和英特尔,以及几所大学和人工智能初创公司。他们认为,人工智能的未来是从根本上建立在开放的科学思想交流和开放的创新之上,包括开源和开放技术。
但是,围绕开源人工智能也存在一定的困惑。尽管名为OpenAI(其背后的公司推动了ChatGPT和图像生成器DALL-E的发展),但该公司构建的人工智能系统实际上是封闭的。在今年4月斯坦福大学举办的一次视频访谈中,OpenAI的首席科学家兼联合创始人伊利亚·苏茨克沃尔(Ilya Sutskever)表示:“显然,短期内存在反对开源的商业动机。” 他还指出,人工智能系统可能具有“令人难以置信的强大”能力,而这种能力太危险了,不适合对公众开放。
来自加利福尼亚大学伯克利分校的学者戴维·埃文·哈里斯(David Evan Harris)指出,目前的人工智能模型存在着潜在风险,例如可能被恶意用来加强虚假信息的传播,进而对民主选举造成破坏。Harris表示:“开源在众多技术领域中都表现出色,然而人工智能却是个例外。”
长期以来,人类技术中心一直对Meta公司的社交媒体行为持批评态度,同时它也是提醒开源或泄露人工智能模型风险的机构之一。该组织的卡米尔·卡尔顿(Camille Carlton)强调:“只要目前还没有有效的防范措施,向公众开放这些模型就是完全不负责任的行为。”
关于以开源方式开发人工智能的利弊,已经饱受争议许久。今年秋天,Meta公司的首席人工智能科学家扬·勒昆(Yann LeCun)在社交媒体上对OpenAI、谷歌和初创公司Anthropic提出了批评。他指责这些公司进行“大规模的企业游说”,以制定有利于其高性能人工智能模型的规则,并可能集中对技术发展的权力。为了应对这种情况,这三家公司与OpenAI的主要合作伙伴微软一起,成立了自己的行业组织,名为“前沿模型论坛”。
LeCun在X(前身为Twitter)上表示,他担心科学家同行们关于人工智能“末日场景”的恐惧言论会被那些想要禁止开源研发的人利用。LeCun写道:“在未来,人工智能系统将成为人类所有知识和文化的宝库,我们需要开源和免费的平台,让每个人都能为之做出贡献。开放是确保人工智能平台能够全面反映人类知识和文化的唯一途径。”
IBM全球政府事务团队的负责人克里斯·帕迪拉(Chris Padilla)表示,对方试图通过引发公众对开源创新的恐惧来达到目的,他们总是反对那些与Windows或Office竞争的开源程序。
美国总统乔·拜登(Joe Biden)在关于人工智能的全面行政命令的讨论中,使用了“具有广泛可用权重的双重用途基础模型”这一技术名称来描述开放模型,并表示这些模型需要进一步研究(权重是影响人工智能模型性能的数字参数)。
拜登在命令中指出,“当这些权重被公开发布在互联网上时,可能会给创新带来巨大好处,但也会带来巨大的安全风险”。他要求美国商务部长吉娜·雷蒙多(Gina Raimondo)在7月之前与专家进行讨论,并就如何管理潜在的利益和风险提出建议。
相比之下,欧盟没有足够的时间来解决这个问题。在后续的谈判中,为最终通过世界领先的人工智能法规而努力的官员们仍在就一些条款进行辩论,其中包括一项可能使某些“自由和开源人工智能组件”免受影响商业模式的规则约束的条款。
新闻内容来自以下网站,不代表GoOA头条立场: