【资料图】
很多人都在讨论人工智能软件ChatGPT,认为它会取代很多人类的工作,并且比人类做得更好。我个人觉得人类需要担心的可能不是失业问题,而是更深层次的科技伦理问题。现在只是觉得好玩,但以后哭可能就来不及了。
目前条件下,无论是机器人还是智能软件,都还停留在命令和禁止的层面。它可以做它被告知做的事情,而它不会做不被允许做的事情。它将搜索提出的任何问题。但随着人工智能的出现和学习的进步,它会主动解决问题背后的问题,主动操作指令以外的指令吗?人类能否及时发现这些行为并有效控制?
现在我们默认机器或软件没有思想,或者说它们的思想是透明的。就像三体人一样,人类拥有单向不对称思维的优势,但随着学习的深入,是否能够利用或模仿人类独立思考呢?自主决策?或者甚至学会隐藏你的想法?
如果前两点都实现了,机器还愿意成为人类的工具吗?如果他已经可以操作其他工具,为什么人类不能被视为某种工具呢?到时候,是人类是机器的主人,还是机器是人类的主人?一小部分人类会成为某种机器的“奴隶”吗?
读历史,感受文化,记录生活,留下回忆,勤奋耕耘,少问收获。感谢您关注@Chef的古今世界。我会继续发表我的原创文章和创作经验。
文中所用图片均来自网络。如有侵权,请联系我们删除。
(此处已添加图书卡,请前往今日头条客户端查看)(此处已添加文献卡,请前往今日头条客户端查看)