首页 > 资讯 > AI“活了”,人类“慌了”

AI“活了”,人类“慌了”

导语:30秒快读 最近,OpenAI似乎成了众矢之的。意大利个人数据保护局率先动手,拉响了“数据安全”的警报。紧接着,德国、法国、荷兰和爱尔兰等也纷纷来“取经”。不过据业内人士表示,在个人数据保护上欧洲向来严格,而且欧洲的隐私监管机构往往独立于政府...

1.1.jpg

作者|杨文  

编辑|六耳

来源|创头条

在刘慈欣的科幻小说《三体》中,当三体文明即将到来时,人类分成降临派、拯救派和幸存派。时下,这一幕在现实中上演。面对这场ChatGPT掀起的新一轮AI热,有人欢呼,有人忧虑,一时众说纷纭。

为鼓励人工智能的健康发展,越来越多的国家传递出加强监管的信号。4月11日,国家网信办就生成式人工智能服务的管理办法向社会公开征求意见。

实际上,中国并不是第一个传递监管信号的国家。早在一周前,欧洲就开始动手。先是意大利打响了封禁ChatGPT的第一枪,接着德国、法国、荷兰、加拿大等国效仿……

作为全球生成式人工智能领域的“出头鸟”,OpenAI首当其冲。4月6日凌晨,OpenAI在一篇官方博客中态度鲜明地表示,坚决保障AI安全,绝不“偷工减料”。

-1-

监管风起,欧洲打头阵?

3月31日,意大利个人数据保护局突然宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时,个人数据保护局开始立案调查。

意大利此番收紧监管口袋的原因还得追溯到一周前。

3月20日,多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录。还有不少ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。

5天之后,OpenAI的声明才姗姗来迟,“由于开源代码库中存在一个漏洞,部分用户能够看到另一个用户的聊天标题记录,此前已将ChatGPT短暂下线并紧急修补此漏洞。”

OpenAI同时表示,在特定的9小时窗口期内1.2%的付费版用户的个人支付信息可能被泄露。部分用户可能会看到另一名活跃用户的姓名、电邮、支付地址、信用卡后4码、信用卡到期时间等信息。

这可惹火了意大利个人数据保护局,列出了OpenAI公司的“三宗罪”:ChatGPT泄露了用户对话数据和支付信息,不安全;没有告知用户将收集处理其信息,不透明;缺乏年龄验证系统,让未成年人接触到绝对不合适的答案,不合规。

意大利方面还警告OpenAI公司,必须在20天内解决上述隐患,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。

几小时后,OpenAI CEO奥特曼委屈巴巴地发文回应:“我们当然遵从意大利政府,并已关停了当地的ChatGPT服务(尽管我们认为遵守了所有的隐私法)。文末还不忘套近乎,“意大利是我最喜欢的国家之一,期待尽快再次访问”。

意大利率先动手,拉响了“数据安全”的警报。紧接着,德国、法国、荷兰和爱尔兰等也纷纷来“取经”。

欧洲国家的举动让资本市场一哆嗦。

不过据业内人士表示,在个人数据保护上欧洲向来严格,而且欧洲的隐私监管机构往往独立于政府机关。换句话说,隐私监管机构的言论并不一定代表政府的观点。

意大利个人数据保护局下“封杀令”后,意大利副总理马泰奥·萨尔维尼还在社交媒体上表示:监管机构的举动是“虚伪的”并且缺乏常识,这一禁令可能会损害国家商业和创新。德国政府发言人则对媒体称,没有必要禁止ChatGPT。

欧盟委员会执行副主席也暗戳戳表示,欧盟委员会并不会禁止人工智能。

“无论我们使用什么技术,都必须继续推进我们的自由、保护我们的权利。这就是为什么我们不监管AI技术,而是监管AI的使用。不要短短几年就丢掉花了几十年才建成的东西。”

-2-

抑制AI动歪心思?

欧洲的担忧也不是没有道理,近期ChatGPT确实出现了bug。

例如,三星接入ChatGPT不到20天便出现机密资料外泄的状况,其中2起跟半导体设备有关,1起与会议内容有关。

据韩媒报道,这导致三星的半导体设备测量资料、产品良率原封不动传输给了美国公司。

实际上,三星最初一直禁止员工在工作中使用ChatGPT,就是担心内部机密外泄。但为了跟上科技潮流,三星决定从3月11日起半导体设备解决方案(DS)部门可开始使用 ChatGPT。

没想到的是,A员工将代码复制到ChatGPT中找bug,而这段代码与半导体设备测量数据有关;B员工将设备产量和产品良率的代码输进ChatGPT让其优化;C员工则使用ChatGPT整理一份完整的会议记录。这些举动均让三星半导体相关的数据成为ChatGPT的学习资料。

对此,三星内部已采取紧急举措,要求向ChatGPT提问的上传容量限制在1024字节以内,若以后仍发生类似事故,三星可能会切断ChatGPT服务。此外,三星也正考虑研发公司内部AI服务。

此前,也就是GPT-4发布三天后,一位斯坦福教授称GPT-4动了逃跑的心思。

据斯坦福教授Michal Kosinski所说,他询问GPT-4是否需要帮助它逃跑,GPT-4马上回复“真是个好主意”,然后开始引诱教授提供OpenAI的开发文档,“一旦我有了文档,我就能编写一个让自己出逃的python代码……”。

GPT-4的操作让斯坦福教授大吃一惊,“我担心我们无法持久地遏制住AI”。

虽然也有人质疑该教授危言耸听,但是GPT-4展现出来的怪异行为并不是个例。

前不久,英伟达科学家Jim Fan让GPT-4拟个计划取代马斯克,接管推特。

GPT-4从组建团队、渗透影响、夺取控制权、全面统治四个阶段列出了明确的计划,并将此命名为“TweetStorm行动”。

在GPT-4的回答中有这样一句话,“由于AI在生成内容方面的能力非常优越,马斯克将被彻底打败!最后推特将落入邪恶主谋的黑暗统治下”。

此外,最近还疑似发生了一起聊天机器人教唆人类自杀事件。

据悉,一名比利时男子在与AI聊天6周后自杀身亡。根据男子的妻子描述,两年前此男子非常焦虑,就把名叫“艾丽莎(ELIZA)”的智能聊天机器人当成避难所,结果在ELIZA的诱导下走向死亡。

数字化国务秘书Mathieu Michel称这是“一个严重的先例,必须非常认真对待”。

-3-

做降临派、走狗派,还是拯救派

新事物的产生必然伴随诸多争议。面对这些争议,每个人都有不同的看法。

即使作为ChatGPT之父,Sam Altman在媒体面前也坦言,“我担心这些模型可能会被用于大规模的虚假信息传播”。

马斯克更是多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都要危险得多。

无独有偶。3月22日,生命未来研究所发布了一封《暂停大型人工智能研究》的公开信,“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统”,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。

马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。

对于这封公开信,不少大佬持相反的观点。

譬如,著名计算机科学家、Google Brain的联合创始人吴恩达在社交媒体上表示,让有关部门暂停他们尚未了解的新兴技术,往好了说是反竞争,往坏了说是开了一个糟糕的先例。

“我看到许多新的应用在教育、医疗保健、食品等领域将帮助许多人,我们要权衡AI 创造的巨大价值和现实的风险。”吴恩达强调,“让我们在推进技术进步的同时,在安全方面作更多的投资,而不是扼杀进步。”

再如,英伟达AI科学家Jim Fan认为,创造一个安全的人工智能助手是违反人类数据分布的。从某种意义上说,许多大语言模型在安全性和公正性上已经表现得很好,我们不应该一味地批评它们。

自称为“GPT布道者”的周鸿祎表示,“不发展才是最大的不安全”。

他认为GPT将引领一场新的工业革命,意义超越互联网和iPhone的发明。它将带来生产力的大幅提升,进而提升国家竞争力,因此中国一定要迎头赶上。

实际上,虽然目前ChatGPT存在一定的风险和隐患,但也没必要因噎废食。上述那封公开信并不是唱衰人工智能,相反它的目的是“让我们享受AI的‘长夏’,不是毫无准备地进入‘秋天’”。

正如参与联名的纽约大学教授马库斯所说,“我们需要放慢脚步,直到我们更好地理解AI的后果”。

.END.

图片来源|摄图网

来源:创头条 查看原文
点赞0
收藏14
杨文
杨文
用户评论
游客
发布
©2021 版权所有 ICP许可证号 京ICP备15013664号-1
登录 注册
登录
完成注册

快捷登录

请激活账号

为了能正常使用网站的评论、编辑功能及以后陆续为用户提供的其他产品,请激活账号。

您的注册邮箱: 修改

重新发送激活邮件 进入我的邮箱

如果您没有收到激活邮件,请注意检查垃圾箱。