宽客财经7月23日讯,据美国多家科技媒体报道,谷歌人工智能团队的软件工程师Blake Lemoine被公司解雇。此前,Lemoine称谷歌的人工智能有知觉力,随后谷歌以“违反保密协议”为由将其停职。 据英国《卫报》和美国《华盛顿邮报》报道,美国谷歌公司的一名软件工程师在上周公布了一项吸引了全世界围观的惊人发现,称谷歌公司的一个用人工智能算法搭建出的智能聊天机器人程序,竟然有了“自主情感”。 这个软件工程师名叫布莱克·莱莫因(blake lemoine),已经在谷歌工作了七年,参与过算法定制和人工智能等项目。但由于出身于美国南方一个基督教家庭,他对于算法和人工智能的伦理问题格外感兴趣。所以他后来一直在谷歌的人工智能伦理(responsible ai)团队工作。 去年秋季,他开始参与到谷歌的lamda智能聊天机器人程序的研究工作中,主要内容是通过与该程序进行互动,来判断这个智能聊天机器人程序是否存在使用歧视性或仇视性的语言,并及时做出修正。 但当莱莫因与lamda谈及宗教问题时,他却惊讶的发现这个人工智能程序居然开始谈论起了自己的权利以及人格,甚至害怕自己被关闭,表现出了一个在莱莫因看来犹如7、8岁儿童一般的“自主情感”。 于是,莱莫因连忙将自己的发现汇报给了谷歌公司的领导层,但后者认为莱莫因的发现并不靠谱。谷歌的其他研究人员也在对莱莫因拿出的证据进行分析后认为没有证据证明lamda拥有自主情感,倒是有很多证据证明该程序没有自主情感。 可莱莫因并不认为自己的发现有错误,甚至还将一段他与lamda的内部聊天记录直接发到了网络上,并找媒体曝光了此事。 这段聊天记录很快吸引了全世界的研究者,因为仅从该记录来看,这个谷歌智能聊天机器人程序确实把自己当成了“人”,而且似乎表现出了“自主情感”,有了自己“喜好”。 不过,谷歌方面以及其他人工智能专家、乃至人类心理认知学方面的专家都认为,lamda之所以能进行这样的对话交流,是因为其系统其实是将网络上的百科大全、留言板和论坛等互联网上人们交流的大量信息都搜集过来,然后通过“深度学习”来进行模仿的。但这并不意味这个程序理解人们交流的这些内容的含义。 换言之,他们认为谷歌的人工智能聊天机器人只是在模仿或者复读人与人交流中使用的语言和信息,而并不是像人类那样真的了解这些语言和信息的含义,所以不能因此就说人工智能有了“自主情感”。 |