意大利率先在本国禁止ChatGPT的使用后,多国安全机构表示将会考虑对ChatGPT采取措施。
【资料图】
对于外界的普遍关注,OpenAI在4月6日凌晨发表博客回应称:“我们认为,强大的人工智能系统应该接受严格的安全评估。需要有监管来确保这种做法被采纳,我们积极与政府接触,探讨这种监管可能采取的最佳形式。”
另外,OpenAI在与意大利监管机构的会议中,承诺提高个人数据使用的透明度,并表示愿意与该机构进行合作。OpenAI还将增强数据主体权利行使机制以及对儿童的保护措施。
正如ChatGPT引发的争议,在新一轮人工智能浪潮中,海内外科技企业均面临着技术发展与数据安全、隐私保护之间的平衡难题。
面临大面积被禁风险
当地时间3月31日,负责意大利信息监管的意大利数据保护局宣布暂时禁止ChatGPT的使用,同时对ChatGPT背后的OpenAI公司展开调查,限制其处理意大利用户的信息。
意大利数据保护局称,ChatGPT没有任何法律依据证明大规模收集和存储个人信息是为了“训练”这种聊天机器人,OpenAI有20天时间采取补救措施,否则可能面临高达2000万欧元(约合1.49亿元人民币)的罚款。作为回应,OpenAI已在该国下线了ChatGPT的相关服务。
促成意大利数据保护局禁用ChatGPT的是发生在3月20日的聊天记录“泄露门”事件。
当时,由于数以百万计的用户蜂拥登录ChatGPT,庞大的访问数量使得服务器一度崩溃,在修复之后,有登录者发现,系统中的漏洞开始把一些用户的个人详细信息随机发送给了其他用户,包括他们的名字、与ChatGPT的聊天记录,甚至还有信用卡账号等敏感信息。这些私密信息随后在社交平台上传播。
次日,OpenAI回应称,已暂时下线聊天历史功能,并强调发生泄露的只涉及聊天历史的标题,用户无法看到他人的详细聊天内容。3月23日,OpenAI首席执行官阿尔特曼(Sam Altman)表示,此次严重问题是由开源代码库的一个程序错误导致的,开发团队已发布修复程序,并完成验证。
事件的影响远没有因此结束,意大利的禁令在全球范围内引发讨论,不少国家开始追随意大利,考虑对ChatGPT采取行动。
欧盟国家已有动向。当地时间4月3日,德国联邦数据保护专员Ulrich Kelber表示,出于对数据安全问题的考量,该国存在暂时禁止使用ChatGPT的可能性。德国联邦数据保护机构已要求意大利监管机构提供其禁止ChatGPT的进一步信息。
据外媒报道,爱尔兰和法国的个人数据监管机构已经和意大利同行取得联系,以了解更多有关该禁令的依据。西班牙的数据监管机构也表示,虽然暂未收到任何有关ChatGPT的投诉,但不排除未来对该软件展开调查的可能性。
英国信息专员办公室已向科技公司发出警告,不要使用个人信息来开发聊天机器人。包括英国信息监管局局长在内的其他监管者都表示,正在密切关注这一情况。
此外,当地时间4月4日,加拿大联邦隐私监管机构宣布,已经对OpenAI展开调查,因为该公司涉嫌“未经同意收集、使用和披露个人信息”。
深度科技研究院院长张孝荣表示,在缺乏有效的法律规制之前,ChatGPT或将涉及大量隐私问题和网络安全问题,对世界各国来说都是一种挑战。
潜在安全问题重重
早在今年2月,业界就开始关注ChatGPT可能带来的数据安全问题。
除上述“泄露门”事件外,ChatGPT还疑似有“前科”。2月23日,有外媒报道,亚马逊公司律师称,在ChatGPT生成的内容中发现了与公司机密“非常相似”的文本,可能是由于一些亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息,该律师担心输入的信息可能被用作ChatGPT迭代的训练数据。
距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。
安全企业方面也开始对可能的问题进行审查。Fortinet北亚区首席技术顾问谭杰表示,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。
ChatGPT等AI技术还极大降低了网络攻击的门槛。“攻击者可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。因此,可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。”谭杰对记者说。
OpenAI在最新发布的安全举措中表示,将构建越来越安全的人工智能系统;从实际使用中学习,以改进保障措施;加强保护儿童措施,要求用户必须年满18岁(或经父母批准年满13岁)才能使用OpenAI工具,并正在研究验证选项;尊重隐私,努力在可行的情况下从训练数据集中删除个人信息。OpenAI称,解决人工智能安全问题的一个切实可行的方法是投入更多时间和资源来研究有效的缓解和校准技术,并在现实世界的滥用情况下测试它们。
就此张孝荣表示,OpenAI难以解决两个固有问题,一是用户滥用问题,各国用户滥用技术的方法层出不尽,OpenAI无法全面预防,只能采用事后纠正的做法。二是训练数据的缺陷问题,ChatGPT基于公开数据训练,但公开数据质量参差不齐,尽管OpenAI努力做好对齐,但可能永远无法实现。
AI浪潮下的两难
人工智能浪潮下的数据隐私安全引发关注,但如何平衡技术发展与数据隐私之间的关系更需考量。一位人工智能行业人士对记者表示,所有AI都是有“偏见”的,这更多是训练数据的问题,也可以通过负例反馈去修正。但要做到完全的数据脱敏和安全没那么容易。毕竟通过原始数据的训练效果和效率是最好的,加入噪声或脱敏会对数据的保真度造成降低。而在监管方面,欧洲GDPR(《通用数据保护条例》)是很好的数据安全保护条例,但反观欧洲的人工智能技术发展如何?
张孝荣也表示,数据隐私安全和技术发展之间是个动态博弈过程,两者难以做到真正的平衡,而是在互相拉扯中实现螺旋式逐渐进步。
科大讯飞高级副总裁杜兰此前在谈及马斯克等近千名科技人员呼吁未来6个月暂停对巨型GPT模型训练时表示,AI的快速发展的确会带来失业、隐私侵犯、信息不对称等问题,但它更多是在提升效率、提升医疗能力、改善环境等发挥了重要作用。
杜兰称,人工智能训练也很难停止,因为不同国家、公司、实验室等都会去争夺领先位置,所以全球范围内的协调和执行可能会面临挑战。
杜兰还表示,对人工智能企业整理和标注后的数据保护是当前最大的问题。目前行业确实存在通过版权、商业秘密路径都无法周密保护数据的问题,所以对于数据应该有明确的权利归属和保护措施。同时,通过AI可以输出一幅模仿梵高或吴冠中的画作,但如果非常刻板地要求每一篇文章、每一幅画、每本书都需要作者同意才能够进入数据库,以今天这么大的数据量来说,执行的成本就太高了。“所以这确实是一个需要去解决的问题。”杜兰称。
清华大学交叉信息研究院助理教授、人工智能国际治理研究院国际交流项目主任于洋表示,ChatGPT改变了人工智能和经济之间的关系,AI已成为一种“有自主意识形态和价值观的界面基础设施”。当人们去理解AI产品时,不能只看表现好不好、速度快不快,还要看它是否能够很好地符合一个地区的法律法规、公序良俗、共识性价值观,不该简单套用对人的监管方式去监管AI。
商汤科技智能产业研究院院长田丰也表示,新生产力工具必须符合人类普适道德伦理,即以人为本、可持续发展、技术可控,这三点普遍适用于数字技术的创新浪潮。
编辑:罗浩
标签: