ChatGPT与网络安全

ChatGPT与网络安全

ChatGPT与网络安全
ChatGPT与网络安全

PART 01

ChatGPT与网络安全

“三高”ChatGPT

ChatGPT与网络安全

美国人工智能公司OpenAI于2022年11月底发布聊天机器人ChatGPT(Chat Generative Pre-trained Transformer)。将人工智能这项多年来一直隐藏着应用系统背后的技术,推到大众面前,甚至火出圈。有人开始尝试用它来写音乐、编剧本、写小说甚至编代码、写论文。

前不久GPT-4又来了,去掉了Chat的它,不仅支持文字,还支持图片。你可以手绘一个代码草稿,交给它,它就能把完整的代码给你写出来。

从ChatGPT各种花式应用的背后,研究ChatGPT,研究它面临的网络安全风险,也颇有一些新发现,将其总结为“三高”现象。

第一,芯片成本高。GPT对芯片的需求极大。训练它需要用英伟达高端GPU芯片A100,每颗售价8万元人民币,完成整个训练过程,需要3万颗A100,人民币24亿元。

第二,能源成本高。GPT-3.5的训练参数,有1750亿个以上,如此大规模参数值,完成一次训练,要消耗90万度电,以每度1元/度计算,需要人民币9万元/次。即使只搞1万次完整训练,电费在1亿元人民币左右。

第三,人员成本高。这里的人不仅指价格很高的算法工程师、人工智能科学家。据美国《时代周刊》报道,有数万肯尼亚人,通过远程方式,帮ChatGPT标注有害内容,他们平均每人每天要标注将近200段文字。普林斯顿大学的华人科学家李飞飞,为了训练一个AI,通过亚马逊的在线众包平台,在全世界167个国家,雇佣了5万人,一共标注了1500万张图片。

PART 02

ChatGPT与网络安全

ChatGPT面临的三大网络安全风险

ChatGPT与网络安全

“有利益的地方就有江湖”。芯片、能源、人工成本都颇高的ChatGPT,有哪些网络安全风险呢?

ChatGPT的网络安全风险主要体现以下三个方面:

一是常见的用户信息漏洞。用户在与ChatGPT互动过程中,输入大量个人或机构的隐私信息,ChatGPT会保留这些信息。因此,这些隐私信息可能会被ChatGPT自己不当使用。ChatGPT还可能将这些信息,以某种形式输出给购物网站、酒店、旅行社、房企等商业企业,用于广告推送、客户筛选等。同时如果黑客攻破ChatGPT的存储设施,也将获得这些个人或机构的隐私信息。

二是隐蔽的数据投毒。机器学习的基础是大规模的数据,如果ChatGPT使用了大量被篡改的或不正确的数据,那么训练出的模型就是错误的。例如,标注图片时指鹿为马,图片上的动物分是明鹿,却被故意大量标记为马。参与训练的某公司财务数据,关键数据指标被篡改,那么训练出来的模型也就是错的,由此产生的决策依据,也是错的。

三是危险的模型攻击。模型攻击在人工智能应用产生之初,就被广泛使用。例如,人脸识别攻击,几年前曾出现,刷人脸图片登录APP的非法登录攻击。

PART 03

ChatGPT与网络安全

ChatGPT需要网络安全保驾护航

ChatGPT与网络安全

故此,人工智能技术与产业应用的发展,离不开网络安全的保驾护航。

加强个人隐私保护。采用数据脱敏、去标识化、匿名化、隐私计算以及加强登录验证等多种方式保护个人隐私数据安全。

加强样本数据保护。通过加强管理体系,加强标识数据管理,加强样本数据清洗管理,保护样本数据安全可靠。

加强算法模型攻击保护。通过增加识别要素、优化模型验证流程等措施,加强算法模型保护。例如,最近采用人脸动态验证,在人脸登录时,通过张张口、点点头等方式,避免算法模型攻击。

ChatGPT与网络安全

ChatGPT掀起了人工智能技术与产业发展的又一次高潮,人工智能将逐渐成为数字社会新型基础设施,像水电气一样随时取用。发展人工智能技术与产业的同时,我们也应同时从网络安全角度,多思考、多提问,为人工智能产业建立起,可靠的安全保障。

ChatGPT与网络安全

原创文章,作者:EBCloud,如若转载,请注明出处:https://www.sudun.com/ask/33222.html

Like (0)
EBCloud的头像EBCloud
Previous 2024年4月2日 下午3:28
Next 2024年4月2日 下午3:28

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注