导言
随着Chat-Gpt的推陈出新,今年被称作人工智能“元年”。
一些领域已经掀起了智能化“革命”的浪潮。
(资料图)
科技是把双刃剑,一方面可以提高工作效率,另一方面可以让一些打工人原地下岗。
更有甚者,一些不法分子,利用人工智能进行犯罪行为。
诈骗、造谣。以假乱真,给受害者带来难以磨灭的伤害。
俗话说眼见为实,耳听为虚。
倘若眼见也非实,那还能相信什么呢?
有人被AI诈骗,10分钟时间骗走430万
事情就发生在前不久,4月20日,福州某科技公司的法人郭先生突然接到好友的微信视频。
两人视频通话中,郭先生的“朋友”表示,自己在外地竞标,需要430万的资金周转。
注意,这个骗局中,骗子有微信,有画面,有声音。
“一键三连”下,郭先生根本就未产生一丝怀疑。
在郭先生的视角中,就是一个微信通讯录中的好友,拨打过来视频电话,对方正是本人,声音也是本人。
出于对朋友的信任,加之视频中已经“核实”了身份,郭先生直接就把430万转过去了。
转账成功后,郭先生给朋友拨打电话,对方一脸懵逼,这时郭先生才发觉被骗。
骗局一气呵成,前后仅10分钟,430万巨款不翼而飞。
AI骗局,9秒被骗走245万元
无独有偶,以上骗局仅过去几天,安徽的何先生又遇到了同样的骗局。
和郭某一样,何先生也是接到了微信好友的“视频电话”。
电话接通后,何某看到了视频中的“好友本人”正在参加会议,还未进一步沟通,对方就匆匆挂断了视频,全程只有9秒钟。
之后对方发来信息,说开会不太方便,有重要的事情要与何先生沟通,叮嘱何先生添加他的QQ。
之后就是一样的说辞,项目需要资金周转云云。
何某想着都见到“朋友本人”了。也是没多想,大手一挥,两百多万转出去了。
后来也是给朋友打电话才发现上当受骗。
人工智能的出现,给了犯罪分子可乘之机。骗子通过AI换脸和拟声技术佯装好友可以轻易获取信任。
想象一下,假如你的孩子或者爱人,某一天突然打来电话,称自己需要一笔资金。
你看到了他/她的脸,听到了她的声音,很难产生怀疑。
仿声模拟敲诈
一个月前,美国就发生了一件类似的案件。一位母亲接到电话,对方声称绑架了她的女儿,要求支付100万美元的赎金。
劫匪还放出了女儿的哭诉声音。母亲听到后当即就相信了,因为不仅声音一样,连女儿的哭泣方式都一样。
母亲赶紧联络孩子的父亲筹款,恰好女儿就在父亲旁边。这才躲过一劫。
这几期发生在近期的案件说明。
在科技的加持下,诈骗行业先“革命”了,已经迈入了“智能化”、“定制化”的时代。
对于一些老人老说,缺乏判断力,更加容易上当受骗。
建议家里有老人的,先给父母打打预防针,培训一把,防患于未然。
AI换脸早在前几年就有,但前几年还很稚嫩,一眼就能看穿。
然而这个技术在今年这个“人工智能”元年,迎来了突飞猛进的升级。
以下这个图,你能看出来哪个是本人嚒?
再看看这个,你以为的聊天女网友长这样,实际可能长这样。
所以,在AI面前,你还能拍着胸脯说,自己一定不会被骗嚒?
除了诈骗,AI造谣,也是需要提防的存在。
尤其是给女子造黄谣,几乎是动动手指的事情。
女子地铁照被AI一键脱衣
前端时间,一则女子的地铁上的照片在网上广泛传播。
就是女子一张普通的生活照,被猥琐之人“移花接木”。生成了一张裸照。
这种AI技术作恶,对运营者动动手指,可对当事人造成巨大的伤害。
造谣一张嘴,辟谣跑断腿。
换脸合成色情影片
国外一名女网红,被其他人恶意合成色情视频,发布在网上传播。
女生经常在INS上受到陌生男子辱骂。她不明所以,直至有天她收到好友发来的陌生链接,才明白这是为什么。
她打开链接发现是一个色情网站,视频的主人公正是自己。
女生一度情绪崩溃,她在直播时痛哭:
如果说造黄谣是一些猥琐之人的恶趣味。
那么还有一种人,则是利用AI捏造新闻,博取眼球和流量。
AI新闻造假,全球媒体受骗
上个月,一些人应该刷到过一个新闻。
一位加拿大小哥,酷爱韩国男团,为了出道,他多次依照韩星整容。
前后整容12次,结果第12次不幸丧命。
报道中,男子韩国经历,整容过程应有尽有,妥妥的一个有图有真相。
国外各大媒体都相继播报此事,加拿大Postmedia以及韩国的YTN、Osen、star等。
一众吃瓜群众纷纷惋惜,结果很快反转来了。
有记者对加拿大小哥的身份进行了查证,这个人压根就不存在。
网上流传的照片都是AI合成的。调查结果让大众哗然。
这只是凭空捏在一个不存在的人而已,倘若捏造公共事件,甚至可能导致群体恐慌,引发信任危机。
AI造谣层出不穷,险些引发社会恐慌
4月25日,平凉市公安局崆峒分局网警发现。
有多个网络账号陆续发布“今晨,甘肃一火车撞上修路工人, 致9人死亡 ”的文章,并且有多个市州的不同版本出现,其中涉及甘肃省平凉、庆阳、陇南、酒泉等多地。
警方迅速核实,发现事件完全子虚乌有,是有人恶意造谣,博取流量。
警方当即截断了信息传播链条,可事件标题骇人听闻,已被转发15000余次。
调查发现,信息源头是广东深圳的某自媒体公司的法人洪某。
洪某交代,通过朋友口中得知,Chat-Gpt可以窜改新闻时间、地点等关键信息,简单修改就能规避平台审查。
他便搜索社会热点事件,利用人工智能将其修改之后发布在自媒体平台博取流量,非法牟利。
幸好警方发现及时,在“新闻”尚未引起恐慌时就将犯人捉拿归案。但此事也足以让人意识到,AI造假后患无穷。
结语
倘若AI可以模糊现实与虚拟的界限,切断人们分辨真伪的能力。那么人类不就是利用AI给自己打造了《楚门的世界》嚒?
人人畏惧虚假的楚门世界,人人却都成了主角。
人工智能将何去何从,你怎么看?
欢迎评论区讨论。