微信扫一扫
全球最重要的技术盛会之一、2023年网络峰会(Web Summit)1日在巴西里约热内卢市(Rio de Janeiro)开幕,将持续4天时间。2日,与会专家指出,技术公司应为研发人工智能(AI)系统潜在风险承担起更多责任。
当日,端对端加密通信软件Signal维护基金会主席梅雷迪思·惠特克(Meredith Whitakker)和安全专家切尔西·曼宁(Chelsea Manning)在会谈中讨论了这一话题。后者曾为美国陆军上等兵,2010年因涉嫌将美国政府的机密文件外泄给维基解密网站(WikiLeaks)而被世人所知。
梅雷迪思·惠特克(左)和切尔西·曼宁
惠特克指出,人工智能工具需要建设大量的服务器基础设施,还需收集大量数据。她指出,这些资源只有一小部分企业能够使用,例如亚马逊(Amazon)、微软(Microsoft)和谷歌(Google)。“世界上仅少数机构拥有完整创建大规模人工智能系统所需要的资源,它们都是大型科技企业。”
惠特克认为,如果针对人工智能工具设立监管条例,那么就必须关注这些只对一小部分企业开放的资源。“大型科技企业表示愿意接受监管,但国会中有些人试图争取由己方制定该类法规的机会。我们需要采取其他措施,能够在人工智能工具投入使用后确保其符合公众利益。”
曼宁表示,虽然人工智能是最新出现的技术,但与它有关的风险却存在已久。“我们在过去15年中看到的有关隐私的问题将继续存在。但随着大型语言和视觉类人工智能模型的出现,我认为其中也存在着巨大机遇。”
曼宁指出,问题在于企业和技术开发人员如何使用人工智能系统,以及他们能够开发出什么样的新技术。“我们必须考虑这(新技术)对公众来说,可能产生的后果。”