中国支付清算协会紧急发声:慎用ChatGPT等工具

时间:2023-04-11 12:23:47来源: 意大利侨网


       ChatGPT热度不减,但人们逐渐开始关注到了安全性的问题。

        4月10日,中国支付清算协会发布了《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(以下简称《倡议》)。

        支付清算协会:倡导支付从业者谨慎使用ChatGPT等工具

       《倡议》表示,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,中国支付清算协会向行业发出三条倡议。

       具体而言,中国支付清算协会向支付行业发出了三点倡议。

       首先是提高思想认识,依法依规使用。支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。

       其次,不上传关键敏感信息。支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

       最后,会员单位加强内部管理和引导。会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。

       《倡议》表示,支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

        ChatGPT概念板块大跌

        值得一提的是,ChatGPT是基于巨大的数据集训练出来的,这意味着它在回答问题可能存在偏见和错误;ChatGPT 以及其他类似的模型可能被用于恶劣的,例如传播虚假信息和滥用个人信息。

        东方财富数据显示,4月10日ChatGPT概念板块大跌6.36%,超过50只个股下跌。

        东方财富数据显示,整个板块主力资金净流出超100亿元。

        虎符智库研究员李建平告诉21世纪经济报道记者,如同其他人工智能模型一样,ChatGPT是把双刃剑,既可以是提升效率的工具,同时也可能被绕过安全机制,用于实施有害的活动。

        对于如何规避ChatGPT所带来的安全问题,他认为,从安全防护的角度来看,ChatGPT的运营机构需采取针对性的应对措施。对ChatGPT等类似模型进行培训,标记恶意的活动和恶意代码,避免其向恶意人员提供;同时对ChatGPT设置难以绕过护栏,提升恶意人员利用其生成恶意内容、开展恶意活动的门槛。

        据上海证券报报道,博通咨询金融行业首席分析师王蓬博表示,ChatGPT等工具需要对数据库不断更新,通过持续训练才能逐渐进化。在这个过程中,很有可能造成个人信息泄露。

        “金融服务不但要考虑到交互的便捷性,更重要的是避免损失,因此AI和金融的结合一定要经过大量训练,并且实时更新数据,和监管风控要求相匹配。”王蓬博表示,AI只能解决金融服务中面临的一小部分问题。ChatGPT也面临人工智能和金融结合中长期面临的问题,比如怎样保护用户个人隐私,避免被用于诈骗等。

        王蓬博表示,现阶段只是ChatGPT等应用的开始,部分金融和支付机构宣布的入局短期内不可能有实际产品。对于一家收单机构而言,无论从技术还是商业模式上,离这类自动语言处理机器还很远,更需要围绕自身业务做好风控和反洗钱等更需要技术支持的工作。从目前支付机构数字化发展的路径来看,支付机构更多地是围绕支付进行升级,逐渐通过支付介入到分账等财务领域。

        ChatGPT工具伴生的数据安全等法律风险早已引发关注。中伦律师事务所北京办公室合伙人乔资营等曾撰文称,作为21世纪的“石油”,数据的战略重要性逐渐凸显。根据ChatGPT的运作原理,用户在输入端口提出问题后,该问题首先会传输到位于美国的OpenAI公司,随后ChatGPT才会给出相应回答,从而实现输入到用户端口对问题的反馈。人工智能生成内容(AIGC)的使用者在使用AIGC技术时很有可能会无意中透露有关个人、金融、商业隐私等的敏感信息,从而造成数据的泄露。

        “现阶段,人工智能类软件多以境外科技公司提供为主,使用者提出的问题中可能涉及到有关国家安全、公共安全、公众健康以及经济运行等方面的数据。这种数据必将会传输到软件所在的境外母公司,由此造成国内数据的出境风险。”上海市检察院检察官翁音韵表示。

        加拿大、意大利调查ChatGPT开发公司

        当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对聊天机器人ChatGPT开发公司OpenAI展开调查,该调查涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。

        目前OPC没有透露更多的调查细节。该机构的一位隐私专员表示,人工智能技术及其对隐私的影响是OPC的优先事项,“我们需要跟上快速发展的技术并保持领先,这是我作为隐私专员重点关注的领域之一。”

        这是继意大利之后又一个对ChatGPT“出手”的国家监管机构。

        此前,3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时个人数据保护局开始立案调查。

        3月20日,多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录。还有不少 ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。

        3月25日,OpenAI发布声明承认,由于开源代码库中存在一个漏洞,部分用户能够看到另一个用户的聊天标题记录,此前已将ChatGPT短暂下线并紧急修补此漏洞。

        同时,OpenAI表示,在特定的9小时窗口期内,1.2%的付费版用户的个人支付信息可能被泄露。部分用户可能会看到另一名活跃用户的姓名、电邮、支付地址、信用卡后4码、信用卡到期时间等信息。

意大利个人数据保护局认为,ChatGPT泄露了用户对话数据和付款服务支付信息,没有告知用户将收集处理其信息,缺乏大量收集和存储个人信息的法律依据,同时缺乏年龄验证系统,因此未成年人可能接触到非法信息。OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。(来源:21世纪经济报道)