您的当前位置:首页>资讯 > 正文

人类能让智能机器人永远听话吗?答案是否定的

  • 2022-11-10 20:51:59 来源:凤凰网

在人工智能发展的路上,我们始终追寻一个答案:人类能否牢牢把握智能机器人的控制权,让机器永远做人类的奴隶?


(资料图片)

2022年世界互联网大会人工智能与数字伦理论坛给了我们答案:不能。

清华大学人工智能研究院名誉院长、中国科学院院士张钹解释,早期无智能的机器才能完全听从人类的指挥,一旦让机器朝着智能化方向发展,就不能让机器完全听从人类的摆布,需要赋予它一定的自由度和自主权。

从技术层面来看,深层次神经网络则是根据这一原理,利用概率数据工具,使机器能够生成丰富多样的文本和图像。但亦会存在风险——生成不合格和有害文本与图像的概率。

“这是我们赋予机器智能的同时,所必须付出的代价,难以避免。”张钹说,人工智能的发展必然带来对伦理和传统规范的冲击。

清华大学人工智能研究院名誉院长、中国科学院院士张钹线上发表演讲。中国网 图

只不过没想到的是,这一担忧来得这么快。本世纪初,基于大数据的深度学习被广泛地应用在各个领域,用来完成决策、预测和推荐等任务,给人类社会带来很大的影响。但是人们很快发现,基于大数据的深度学习算法,具有不透明、不可控和不可靠等缺陷,导致人工智能技术很容易被无意误用,可能给人类社会带来严重的后果。

这样的不良后果包括一旦神经网络违背用户的要求,生成充满种族、性别等偏见,不公正和错误百出的文本和图像,就会完全不受使用者的控制,可能带来破坏公正性和公平性的严重后果。

“我们以为只有当机器人的智能接近或者超过人类之后,我们才会失去对它的控制,没有想到的是,在机器智能还是如此低下的时候,我们已经失去对它的控制。”张钹提醒,人工智能的伦理风险就在眼前,治理迫在眉睫。

那能否通过给机器规定严格的伦理准则,来限制它的错误行为?难!张钹解释,不仅因为伦理的准则很难准确描述,即便可以定义,也很难执行。

张钹分析,人工智能无论是被有意滥用还是无意、误意都需要治理,不过这两者的治理性质完全不同。前者要靠法律约束和社会舆论的监督,是带有强制性的治理。后一种则需要通过制定相应的评估准则和规则,对人工智能的研究开发和使用过程,进行严格的科学评估和全程监管,以及采取补救措施等,避免人工智能被误用。

“从根本来讲,人工智能的研究、开发都需要以人为本,从公正公平的伦理原则出发做负责任的人工智能。”张钹说,当下发展第三代人工智能的思路是,努力建立可解释的鲁棒(音译自“robust”,学术上即一个系统或组织有抵御或克服不利条件的能力)人工智能理论。在此基础上才有可能开发出安全、可信、可控、可靠和可扩展的人工智能技术,最终推动人工智能的公平、公正和有益于全人类的应用与发展。

重中之重是建立国际合作。张钹提出,世界应当通力合作,共同制定出一套符合全人类利益的标准,让人工智能健康发展,造福于全人类。

标签: 人工智能 智能机器人

推荐阅读

人类能让智能机器人永远听话吗?答案是否定的

张钹分析,人工智能无论是被有意滥用还是无意、误意都需要治理。

问界M7碰撞测试A柱疑变形?官方客服称符合安全标准

同样在这三项测评中取得G级表现的,还有理想L9、华晨宝马X5、小鹏P5等明星车型。

Zoom将登陆特斯拉汽车 随时随地车内开会

Zoom应该会使用特斯拉的车内摄像头。

世界资讯:马克龙喊话欧洲觉醒 英国也不甘电动车落伍:将开发首个锂矿

建设期3年,预计2025年开始投产,希望能打入锂电池、储能、电网及动力电池等领域。

焦点热议:韩媒:韩国“赏月”号探测器成功传回数据

“赏月”号探测器是韩国首个地球轨道以外的太空任务。

猜您喜欢

【版权及免责声明】凡注明"转载来源"的作品,均转载自其它媒体,转载目的在于传递更多的信息,并不代表本网赞同其观点和对其真实性负责。亚洲科技网倡导尊重与保护知识产权,如发现本站文章存在内容、版权或其它问题,烦请联系。 联系方式:8 86 239 5@qq.com,我们将及时沟通与处理。

业界