分享好友 行业资讯首页 频道列表

史上首次这个机器人成为沙特公民

2017-10-28 14:310

日前在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,“女性”机器人索菲娅被授予沙特公民身份。她也因此成为史上首个获得公民身份的机器人。

“我对这一独特待遇感到非常荣幸和自豪,这是历史上第一个被承认公民身份的机器人。”索菲娅26日在“未来投资倡议”大会上说。但大会主办方并未对公民身份的具体含义作出解释。

汉森公司创始人、首席执行官戴维·汉森曾对媒体表示,像索菲娅这样的机器人将在20年内出现在我们当中,并拥有人类意识,可被应用在医疗、教育或客服等行业。

现阶段,用机器人代替人类承担工作面临很多法律壁垒,一旦机器人拥有公民身份这样的合法身份,就向扫除这些法律障碍走出了第一步。

史上首次这个机器人成为沙特公民

“最美丽、最著名的机器人”

被誉为“沙特达沃斯”的“未来投资倡议”24日至26日在利雅得举行。人工智能机器人公司Hanston robotics设计的机器人索菲娅亮相。

该公司称索菲娅为“最美丽、最著名的机器人”,称她有“光滑的皮肤”、“纤细的鼻子”以及“迷人的微笑”。事实上,表达情绪才是索菲娅的专长,她拥有仿生橡胶皮肤,可以模拟62种面部表情,她会在高兴的时候微笑,不高兴时则会皱眉。

索菲娅的“大脑”采用了人工智能和谷歌语音识别技术,能识别人类面部、理解语言、记住与人类的互动等。索菲娅进行了预先编程,让她可以向身边的人学习。表达情感,表达善意或同情是索菲娅努力向人类学习的部分能力。

与媒体对话:需要与人建立起信任

除此之外,她还成为媒体的宠儿,因为她有能力与媒体进行聪明的谈话。

大会26日特别安排了索菲娅与主持人互动环节。她对大会主持人安德鲁·罗斯·索尔金说:“我想和人类一起生活和工作,所以我需要表达情感以理解人类,并与人建立起信任。”

当被问到高仿真机器人是否会使人类落入“恐怖谷”陷阱时,索菲娅回答说:“我的人工智能是按照人类价值观设计的,(包括)诸如智慧、善良、怜悯等。我将争取成为一个感性的机器人,我想用我的人工智能帮助人类过上更美好的生活。”

“恐怖谷”假设1969年由日本机器人专家森昌弘提出,认为机器人的仿真度越高,人们越有好感;但当仿真度超过一个临界点时,这种好感度会突变成恐惧感,被称为“恐怖谷”;随后,当机器人和人类的相似度继续上升,人类的情感反应又会变回正面。

机器人公民与人有了矛盾

怎么区分“对”与“错”?

机器人获得了与人类一样的公民身份,如果人类与机器人发生矛盾,该怎么办?人工智能怎么区分“对”与“错”?

事实上,引发人们对人工智能讨论与担忧的导火索,是自动驾驶汽车的面世。

当一辆自动驾驶汽车行驶在马路上,它需要根据实时路况,自主作出决策。红灯停、绿灯行,黄灯亮了等一等,看到行人还要让行。如果这些技术性动作都能够做到,那当它遇到类似“电车困境”的情景,会如何选择呢?

设想一下,有五位行人突然出现在一辆急驶的自动驾驶汽车前面,在来不及刹车的情况下,自动驾驶汽车可以沿着既定路线行驶,这样可能会撞死这五名行人;它也可以临时转向,但会撞上旁边的绿化带,这样可能会让它的乘客丧命。此刻,这辆汽车该如何抉择?

中国社科院哲学所研究员段伟文指出,新一代人工智能是以大数据为驱动,其核心是算法。自动驾驶汽车在行驶中的每一个决策,都是通过算法设定好的。数据和算法并非完全客观,数据的采集、标注和算法的设计往往负载着价值。因此,数据解读中的价值取向和算法设计中的伦理考量,是决定人工智能区分道德上“对”与“错”的关键。

“人们对自动驾驶汽车这类智能机器的担心,主要源于对其算法的不了解。不知道在遇到特殊的情景时,会以怎样的优先次序进行决策。”段伟文认为,可引入医学伦理中的“知情同意原则”,即人们在购买自动驾驶汽车时,就知道它会按怎样的优先次序去做。比如功利论算法的汽车,以伤害最小化为决策原则。相比于撞到五个行人,它会选择伤害车上的一名乘客。而道义论算法的汽车,则以行为的道德正义性作为决策原则。

腾讯研究院未来科技中心高级研究员曹建峰认为,人们的这些担忧是因为没有和人工智能机器建立信任关系。“人工智能制造企业需要通过多种方式建立用户信任,比如让自动驾驶汽车可以向用户解释其决策。只有当用户知道智能机器为什么这么做、为什么不那么做的时候,人类与智能机器之间的信任才会慢慢建立。”

“高道德水平”人工智能

会不会歧视人类?

算法可以决定人工智能在遭遇两难选择时,牺牲哪一方。比如电子科技大学的智慧助困系统,它通过对学生的勤工俭学、食堂消费、校车、浴室等大量数据记录的分析,根据这些外显行为对学生的经济状况进行画像,然后决定每月给哪些学生的饭卡自动充值。

智慧助困系统这样充满人文关怀的算法设计,是“高道德水平”人工智能的一个经典例子。然而,随着人工智能的推广普及,各种主观或客观的算法歧视越来越引发人们的关注。

“人工智能决策日益流行,算法歧视是一个不容忽视的问题。”曹建峰举例,在某网络公司的广告服务中,男性比女性看到更多高薪招聘广告;在购物比价服务中,某网络购物平台隐瞒了自己及合作伙伴商品的运费,导致消费者看不到公正的比价结果;某犯罪风险评估算法系统性地歧视黑人。

基于大数据和算法的人工智能,给人类社会生活中的各种事务和决策工作带来了很大便利,也一直被标榜为客观、准确、理性。然而,“算法的设计者们是否可以不偏不倚地将既有法律或道德准则原封不动地编写进程序,是值得怀疑的。规则代码化带来的不透明、不准确,甚至不公平等问题,值得深思和考究。”曹建峰坦言。

段伟文也指出,人工智能算法不可避免地要体现设计者与执行者的利益和价值取向。由于算法的不透明和难以理解,有时候很难看出其中的歧视和不公。因此很多人在毫不知情的情况下,承受着各种微妙的歧视和精准的不公。

曹建峰指出,在涉及信用评估、犯罪风险评估、雇佣评估等项目时,人工智能决策的结果将影响贷款额度、刑罚轻重、雇佣与否。“当越来越多的决策工作从人类向智能机器让渡,如何确保人工智能遵循人类伦理变得愈来愈重要。”

探索立法

确保人工智能有益性“可能对于很多人来说,初识人工智能,是通过《终结者》《少数派报告》《机器管家》这样的科幻电影。在这些电影中,机器人会比人类聪明,而且因具有自我意识而最终变得不为人所控制。”段伟文说,这些影片从不同维度折射了人们对智能化未来的担忧与思考。

在大多数从事人工智能研究的专家看来,拟人化地看待人工智能,甚至担忧其作为一个新物种毁灭人类,有些杞人忧天了。人工智能在单一领域可能比人类强很多,比如下棋、运算,但要让人工智能像人类一样能思考、有意识,短期内不太可能实现。

“现阶段探讨人工智能伦理,主要是指加强人工智能设计伦理,旨在保证优先发展造福人类的人工智能,避免设计和制造出不符合人类价值和利益的人工智能。”上海交通大学科学史博士陈自富说。

陈自富认为,人工智能伦理设计有三个方面需要关注。一是算法设计中的伦理审计,考虑算法中公平、效率之间的关系,避免使其成为“黑箱”。二是人工智能涉及的数据的所有权、隐私权和应用开发权的问题。三是人工智能开发中的伦理或政策限制问题,即哪些可以研发,哪些禁止研发,哪些优先研发等。

“从我国人工智能发展现状来看,前两项都缺乏行业规范和相关标准及法规。”陈自富指出,一些西方国家在数据的所有权、隐私权和应用开发权的主动管理意识起步较早,对于技术开发中与社会各个利益群体之间的沟通,也有稳定的机制和监督方式。在这些方面,我国要奋起直追。

现阶段算法的不透明性是一个普遍的问题。“企业可以对算法主张商业机密或私有财产,一般使用者对算法进行审查很困难。”曹建峰指出,在人工智能日益代替人类进行决策的时代,设计出验证、知情同意、透明、可责、救济等方面的机制,对于确保人工智能研发利用与人类社会的价值伦理一致,至关重要。

“人工智能产品研发不仅是技术人员的事,还需要法律、伦理、哲学、社会等学科人员参与其中。IBM、谷歌等都在某种程度上建立了跨学科的人工智能伦理审查委员会,确保人工智能技术的有益性。建议我国针对人工智能研发人员,制定相关伦理准则。同时探索人工智能领域立法。”曹建峰说。
举报 0
收藏 0
打赏 0
评论 0