首页 > 商业资讯 > 正文
分享到:

万亿巨头出手:禁止员工使用ChatGPT类工具!

时间:2023-05-03 22:01:13 来源: 评论:0 点击:0

  5 月 3 日消息:自诞生之日起即炙手可热的ChatGPT,因安全风险而广受科技巨头们审视,这一次出手的是万亿巨头三星。

  据外媒报道,近期三星电子已在内部备忘录告知员工,停止使用ChatGPT和Bard等生成式AI工具,理由是担心会带来安全风险。

  三星的担心并非空穴来风。据此前消息显示,三星电子引入聊天机器人ChatGPT不到20天就发生了3起涉及ChatGPT的事故。与此同时,目前多家国际投行及科技公司均对ChatGPT持谨慎态度。

  不过,虽然暂停员工使用ChatGPT类工具,但这并不意味着三星对AI采取封闭式态度。据国外科技媒体报道,近日三星向旗下所有的手机以及平板电脑产品推送了微软BingAI更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软BingAI。

  来看详情——

  禁止员工使用生成式AI

  违者可能遭解雇

  据外媒周一报道,三星电子已在内部备忘录告知员工,停止使用ChatGPT和Bard等生成式AI工具,理由是担心会带来安全风险。

  报道称,内部备忘录表示,三星电子担心传输到谷歌Bard和微软Bing等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。

  内部备忘录显示,三星电子上个月进行了一项关于内部使用AI工具的调查,其中65%的受访者认为此类服务存在安全风险。今年4月初,三星工程师将内部源代码上传到了ChatGPT,目前还不清楚这些信息包含什么。

  与此同时,三星正在开发自己的内部AI工具,用于翻译和总结文件以及软件开发,还在研究阻止敏感公司信息上传到外部服务的方法。“总部正在审查安全措施,以创造一个安全的环境,以安全地使用生成式AI来提高员工的生产力和效率。但是,在准备好这些措施之前,我们暂时限制生成式AI的使用。”

  据了解,三星电子的新政策禁止在公司自有的电脑、平板电脑和手机以及内部网络上使用生成式AI系统,不会影响销售给消费者的设备,例如Android智能手机和Windows笔记本电脑。

  另外三星在备忘录中表示:“我们要求您认真遵守我们的安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。”

  曾出现资料外泄事故

  不到20天3起

  三星此次采取备忘录的方式提醒全体员工之举,并非空穴来风。

  据此前消息显示,三星电子引入聊天机器人ChatGPT不到20天就发生了3起涉及ChatGPT的事故。3起事故中,其中2起与半导体设备有关,另一起与内部会议有关。具体为:

  案件一,三星设备解决方案部门的职员A在半导体设备测量资料库下载软件时,发现源代码出现错误,便将有问题的部分复制到ChatGPT中寻找解决方案。

  案件二同样发生在设备解决方案部门,职员B将用于识别产品良率的程序代码输入进ChatGPT,要求其优化代码。

  案件三是该部门的职员C为了制作会议记录,将手机上的会议内容转换为文档,之后将文档输入进ChatGPT。

  相关报道称,前两起案件已分别导致三星公司的半导体设备测量资料、产品良率等机密内容录入到ChatGPT的学习资料库中。

  不难发现,上述三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions)部门。此前,三星曾因担忧内部机密外泄而禁用ChatGPT,但基于半导体是“生成式AI”的建构基础,三星自3月11日起允许DS部门使用ChatGPT。

  对于上述泄密事件,三星方面回应,已加强ChatGPT相关的安全措施,将进一步收紧内部监管和员工培训。公司还特地发布公告叮嘱员工注意使用ChatGPT的方式,如果再次发生类似事件,内部可能会切断ChatGPT服务。

  三星通过内部公告警示说:“在ChatGPT中输入内容的瞬间,数据就会发送到外部服务器并存储,公司无法收回。如果ChatGPT学习相关内容,敏感内容可能会提供给不特定的多数人。”

  已推送微软Bing AI更新

  虽然暂停员工使用ChatGPT类工具,但这并不意味着三星对AI采取封闭式态度。

  据外媒报道,三星近日向旗下所有的手机以及平板电脑产品推送了微软Bing AI更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软Bing AI。

  据韩媒今年3月报道,三星电子DX部门负责人韩钟熙(副会长)21日在首尔举行的新产品发表活动中表示,将集中全部力量扩大机器人事业,把机器人作为新的增长动力,同时加强了外部投资及合作。三星风险投资当天表示,利用从三星电子出资筹集的基金,向无人驾驶机器人初创公司New Bility投资了30亿韩元。

  作为韩国最大的跨国企业集团,三星集团包括众多国际下属企业,其中三星电子为三星旗下最大的子公司。数据显示,三星电子总市值达391.02亿韩元(约合2.01亿人民币)。

  4月27日,三星电子公布了其2023年第一季度的财报。数据显示,2023年第一季度,三星电子实现营业利润6402亿韩元(约合人民币33亿元),同比下降95%,为14年来的最低水平;净利润1.40万亿韩元(约合人民币72亿元);销售额63.75万亿韩元(约合人民币3295亿元),同比下降18%。

  值得关注的是,三星电子半导体业务第一季度亏损4.58万亿韩元(约合人民币236亿元),而去年同期该业务有8.45万亿韩元的利润。三星电子表示,由于科技行业的长期低迷严重打击了其存储芯片业务,第一季度利润骤减至金融危机以来所未见。

  ChatGPT安全性惹争议

  因安全问题而对ChatGPT采取“禁用”、“暂停”手段的大型公司,三星不是第一家,也不会是最后一家。

  首先对ChatGPT表示“拒绝”的,当属金融行业。ChatGPT掀起热潮不久后,今年2月,JP摩根大通、美国银行、花旗、富国银行等华尔街巨头陆续表示将禁止或限制使用ChatGPT。这不仅因为ChatGPT属于第三方应用软件,不是公司内部系统,更因为与AI共享敏感财务数据的潜在监管风险。

  例如,摩根大通不准员工在办公室使用ChatGPT,其表示,有关禁令并非源自任何特定事件,而是基于公司对第三方软件的正常管控。美国银行例行提醒员工切勿使用未经授权软件时,也特别点名提到ChatGPT。

  德意志银行表明,严禁员工在公司内用ChatGPT,并从内部阻断连接OpenAI网站。而尽管高盛鼓励编程人员采用AI来辅助编程,但禁止旗下交易员使用ChatGPT。

  韩国方面,除三星外,全球第二大存储芯片巨头韩国SK海力士称“除必要时刻外”,几乎禁止公司内部网使用ChatGPT。韩国液晶面板龙头公司LG Display通过公司内部帖子和教育、活动等,随时强调公司内部信息保护和防止泄漏等信息安全认识。

  据日媒报道,日本软银集团此前向全体员工通报了禁止在ChatGPT中输入机密信息等注意事项,该集团还计划制定了哪些业务或用途可以使用交互式AI的规则。瑞穗金融集团、三菱UFJ银行、三井住友银行禁止将ChatGPT等交互式AI用于业务。松下控股旗下松下Connect在制定信息泄露对策后才允许使用交互式AI。富士通设置了“AI伦理治理室”,提醒用户使用交互式AI时的注意点。

  3月23日,OpenAI的首席执行官Sam Altman公开承认开源库中出现错误,导致部分用户与ChatGPT的聊天记录被泄露。当天他发布致歉推文,表示已经修复了错误并完成验证。

  政府方面,此前意大利个人数据保护局曾宣布禁止使用ChatGPT,并限制OpenAI公司处理意大利用户信息。不过据意媒上周五报道,被勒令下线近一个月后,ChatGPT已经在该国恢复服务。

  4月30日,七国集团数字与技术部长会议同意对人工智能采取“基于风险的”监管。七国集团的部长在联合声明中表示,此类监管也应为人工智能技术的发展“维护一个开放和有利的环境”。

  另外,近期欧盟提出新的立法草案,要求ChatGPT等人工智能工具的开发商,披露他们在构建AI系统时使用的版权材料。这一规则将赋能出版商和内容创作者,使他们在作品被ChatGPT等AI工具用作生成内容的原始材料时,可寻求利润分成。