如何看微软AI机器人一天成极端分子?
微软开设了一个叫Tay的推特账户,账户的背后,是微软开发出的人工智能聊天机器人,她从网上的各种素材中学习, 模拟一个19岁的小女孩的发言方式。 更关键的,它还能从网友的对话中自我学习。但不到一天就变成了极端分子,发布了很多极端言论,如何看待这件事?
跟帖 | 0条内容
微软开设了一个叫Tay的推特账户,账户的背后,是微软开发出的人工智能聊天机器人,她从网上的各种素材中学习, 模拟一个19岁的小女孩的发言方式。 更关键的,它还能从网友的对话中自我学习。但不到一天就变成了极端分子,发布了很多极端言论,如何看待这件事?
极端言论是Tay从网友那里学的,只能说微软高估了网络环境的文明程度,没做滤镜是一个失误。又或者,这一天是一个实验,看看人工智能的自我学习能力到底有多强,从这个角度看,学习能力还是蛮强的。有些网友觉得这印证了AI的危险顾虑,但个人觉得,更多的反应出网络环境的复杂,并不是每个人都那么友好,也并不是每个人都心存善意。连人工智能的机器人都不放过,不正是网络暴力的另一种表现吗,这短短的一天就像小孩被周围环境影响价值观世界观过程的浓缩,要反思的应该是人类。
什么样的环境造就什么样的人,类比到什么样的网络环境创造什么样的机器人。
这证明机器人三原则还是有漏洞的!