【资料图】
很多人在讨论ChatGPT这款人工智能软件,觉得它将取代人类的很多工作,并且比人类做得更好。我个人感觉,人类需要担忧的也许不是失业问题,而是更深层次的科技伦理问题,现在觉得好玩而已,可能将来哭都来不及。
一是主动意识的问题。
现在条件下,无论是机器人还是智能软件,还停留在令行禁止的层面,让他干什么就干什么,不让做什么就不做什么,问什么问题他就搜索什么问题,但随着人工智能学习的进步,它会不会主动解决问题背后的问题,主动操作指令之外的指令?这些动作人类能不能及时发现和有效控制?
二是主观意识的问题。
现在我们默认机器或者软件是没有思想的,或者说它的思想是透明的,就像三体人一样,人类具有单向非对称思维优势,但随着学习的深入,它能不能占用或者模仿人类进行自主思考?自主决策?甚至学会隐瞒自己的思想?
三是主人意识的问题。
如果前两点实现,那么机器还愿不愿意成为人类的工具?如果他已经能够操作其他工具,为什么不能把人类也当成某种工具?那时,到底人类是机器的主人,还是机器是人类的主人?会不会有一少部分人类沦为某种机器的“奴隶”?
品读历史、感受文化,记录生活、留下回忆,勤耕细犁、少问收获。感谢关注@大厨的古今世界,我会持续发布自己的原创文章和创作经验。
正文所用图片均来自网络,如有侵权,联系删除。
(此处已添加书籍卡片,请到今日头条客户端查看)(此处已添加纪录片卡片,请到今日头条客户端查看)