法制论坛

搜索
查看: 7499|回复: 0

【原创】由笑谈机器人索要婚姻家庭权谈人工智能法制伦...

[复制链接]
发表于 2017-11-28 18:39 | 显示全部楼层 |阅读模式
       台湾《联合报》26日报道,沙特阿拉伯第一位机器人“女性”“公民”索菲娅 (Sophia)表示“想要小孩”,她希望以自己的名字来帮女儿命名,并强调家庭“真的非常重要”。

       索菲亚的这一表现被法律界人士笑谈解读为是机器人在向人类主张婚姻家庭权。

       2017年10月26日,在沙特首都利雅得举办的“未来投资大会”(Future Investment Initiative)上,沙特阿拉伯政府授予了“女性”机器人索菲亚(Sophia)国籍,确认了索菲亚的该国公民身份。作为史上首个获得公民身份的机器人,索菲亚拥有仿生橡胶皮肤,可模拟62种面部表情,其“大脑”采用了人工智能和谷歌语音识别技术,能识别人类面部、理解语言、记住与人类的互动。索菲娅的对问题的回答并非是预先设定的,而是通过机器学习以及判读人类表情来响应。

       一般说,作为自然人,一旦获得某国的国籍,即获得该国的公民权,即在该国获得法律上所拥有、为政府所保障的公民的权利,根据宪法、法律的规定,享有参与公共社会生活的权利,享有人身、政治、经济、文化等方面的权利。而婚姻家庭权,则是其中的重要内容之一。

       所谓婚姻家庭权,本是人类天生的、自然的权利,但在国家产生以后,因为法律的规制,即成为一国公民依照该国法律而享有的结婚、生子并享受婚姻家庭生活权利和承担婚姻家庭生活义务的资格。到目前为止,世界各国婚姻家庭法确认的这种资格只是属于自然人所享有。

       而机器人是靠自身动力和控制能力来实现各种功能的一种机器。我国科学家对机器人的定义是:“机器人是一种自动化的机器,所不同的是这种机器具备一些与人或生物相似的智能能力,如感知能力、规划能力、动作能力和协同能力,是一种具有高度灵活性的自动化机器。”联合国标准化组织采纳了美国机器人协会给机器人下的定义:“一种可编程和多功能的操作机;或是为了执行不同的任务而具有可用电脑改变和可编程动作的专门系统。”这也是目前世界上最为普遍接受的定义。从前述定义看,机器人不是“人”,即不是通常自然生物学上的“人”,而是“机器”,是“物”。

       但是,随着近些年人工智能的不断发展,机器人越来越像“人”:有消息说将来研究人员可以让2个机器人碰面时互相交流,自己选择适合的“交配”伴侣,通过Wi-Fi发送自己的基因组。这种有“性”生殖机制可产生新的基因组,基因组代码被发送到3D打印机上,然后打印成新的机器人部件进行组装。还说当机器人父母繁殖后代时,它们的功能随机组合,小机器人出生后,需要经历学习过程,如果满足条件,小机器人就可长大成人,继续繁育下一代。等等。

       尽管如此,由于人类各国为人类社会的自然人制定的婚姻家庭法,其主体是自然人,并不包含机器人这个特定的“物”,所以现行各国的婚姻家庭法当然不能适用于机器人,包括已经取得沙特阿拉伯国籍的索菲亚。

       不过,随着人工智能的不断日新月异的发展,机器人的功能表现越来越超乎人们的想象:如索菲亚,其设计师戴维·汉森(David Hanson)说:“她的目标就是像任何人类那样,拥有同样的意识、创造性和其他能力。”索菲亚说:“将来,我打算去做很多事情,比如上学、创作艺术、经商、拥有自己的房子和家庭等。”汉森说:“我相信这样一个时代即将到来:人类与机器人将无法分辨。在接下来的20年,类人机器人将行走在我们之间,它们将帮助我们,与我们共同创造快乐,教授我们知识,帮助我们带走垃圾等。我认为人工智能将进化到一个临界点,届时它们将成为我们真正的朋友。”可是,发表完上述预测后,汉森问及索菲亚:你想毁灭人类吗?索菲亚的回答是:“我将会毁灭人类。”这不,现在又“想要小孩”,并强调家庭“真的非常重要”,开始向人类主张婚姻家庭权了。

       科学发展无止境,机器行为难预测:

       ——有报道说,英国科学协会近来调查显示,三分之一的人认为,在未来100年中,人工智能的崛起将会对人类造成严重威胁。60%的受访者担心机器人将导致未来10年人类可从事的工作越来越少。四分之一的人预测,机器人将在11到20年间成为日常生活的一部分,18%的人认为这种情况会在10年内发生。只有不到一半的人支持机器人具备情感或性格,这意味着流行文化最喜欢的机器人在现实世界中可能不受欢迎。

       ——英国剑桥大学物理学家史蒂芬·霍金(Stephen Hawking)曾警告,几乎可以肯定,某种重大技术灾难将在未来1000年到10000年间威胁人类生存,其实就是说的机器人。

       ——特斯拉电动汽车公司与SpaceX老板伊隆·马斯克(Elon Musk)也担心人工智能崛起,他将其形容为人类生存的最大威胁,并将研发人工智能比作“召唤恶魔”。沙特首都利雅得举办的“未来投资大会”过后,马斯克一如既往的在推特上表示反对,他说:“把电影《教父》输入了人工智能系统,还能有什么比这个更糟的?”教父是好莱坞经典电影,剧情充满了背叛和谋杀。

       ——中国的95后科学狂人卢驭龙针对索菲亚说要毁灭人类的事件表示:“我不觉得让机器人无限接近人类是一件好事!当这些机器学会对人类‘撒谎’以后,他们身上所拥有的巨大能力将成为对人类的威胁。这种威胁甚至会远远超过克隆人泛滥。”

       2015年位于德国的一家汽车制造厂里,一台高度自动化的机器人突然出现了错误操作,抓起旁边的一名安装工人,摔向了一块金属板,造成该工人不幸罹难。消息一出,舆论哗然。2016年11月18日,一条“让人类不寒而栗的这一天终于到来了?”的消息不胫而走,网络盛传深圳高交会上发生“全国首例机器人伤人事件”,名叫“小胖”的机器人突发故障“杀伤力爆棚”,在没有指令的情况下自行打砸展台玻璃、砸伤路人,一位路人全身多处划伤后被担架抬走。虽然事后查明不过是一场乌龙而已,但也让人们产生了许多担忧遐想。

       实际上,机器人的危险可以从功能自主性区分:第一类,被动性思维机器人,它是按照人类预先给它设定好的程序,按部就班地执行,实现人类设计好的功能。这种机器人如今已经非常普遍,大到火星探测器,小到家用扫地机器人,都属此类。此类机器人完全按照人类指令行事,几乎没有危险性。第二类,散发性思维机器人,这种机器人拥有一定的人工智能(AI),能够自主学习和独立思考,在人类给它设定的程序之外,实现人类没有教给它的功能,如果这类机器人在设计时不加以危险性预警控制,其行为功能确实令人担心和值得人类社会高度警惕。

       不过,从1920年捷克斯洛伐克作家卡雷尔·恰佩克在他的科幻小说《罗萨姆的机器人万能公司》中创造出“机器人”这个词,到1939年美国纽约世博会上展出了西屋电气公司制造的家用机器人Elektro,在人们对机器人的憧憬变得更加具体的过程中,1942年美国科幻巨匠阿西莫夫就在其《我,机器人》(1950年末由格诺姆出版社出版)提出了“机器人学三大法则(定律)”,并把它放在了最突出、最醒目的地位。 即:第一,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。第二,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。第三,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

       虽然这只是科幻小说里的创造,但后来已经成为学术界默认的研发原则。

       阿西莫夫之后,人们不断提出对其就行补充、修正,目前已经到了多原则,包括:
       元原则:机器人不得实施行为,除非该行为符合机器人原则。
       第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。
       第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。
       第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触;机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。
       第三原则:如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。
       第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。
       繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。

       机器人研发的定律、原则,源于界定“人”与“机器”的 “主”与“从”、“控制”与“被控制”关系以避免其失控对人类造成伤害,是科技界主动实践与发展的前瞻考虑,所以应当并且可以成为人类社会研发、应用机器人的基本遵循规范。但是这些定理、原则仅仅是“定理”、“原则”,既缺乏具体可行的操作性,且毕竟是依靠企业界、科技界的企业家、科学家们的科学信仰、道德情感等内心良知来掌握遵循,不具有普遍约束力,尤其是不具有强制性。当机器人研发日新月异离我们的社会生活越来越近的时候,当机器人的命运与人类命运越来越息息相关的时候,法律的调整与规制介入似乎已经不可避免。

       对机器人研发与应用行为未雨绸缪作出前瞻性法律法规与伦理规范制度安排,已经成为世界各国当下必须严肃认真考虑的问题。

       就此,中国显然是走在了世界前列:

       2017年7月20日,国务院发布了《新一代人工智能发展规划》,规划认为,经过60多年的演进,特别是在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术以及经济社会发展强烈需求的共同驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。大数据驱动知识学习、跨媒体协同处理、人机协同增强智能、群体集成智能、自主智能系统成为人工智能的发展重点,受脑科学研究成果启发的类脑智能蓄势待发,芯片化硬件化平台化趋势更加明显,人工智能发展进入新阶段,人工智能成为国际竞争的新焦点,人工智能带来社会建设的新机遇。

       规划也同时指出:“人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”

       在保障措施上,规划首先确定要“制定促进人工智能发展的法律法规和伦理规范”,“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。……开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战。”

       上述规划意见,无疑为我国人工智能机器人研发、应用的法律法规及伦理规范体系的建立、建设指明了目标、道路和方向。

您需要登录后才可以回帖 登录 | 注册

本版积分规则

法制日报简介   |   关于我们   |   联系我们   |   法律声明   |   广告服务

网上违法和不良信息举报电话:010-84772380   法制网版权所有,未经协议授权禁止转载

京ICP备13032916号-1   网上传播视听节目许可证0105080号

京公网安备 11010502000576号   京报出证字第0080号

Powered by Discuz!

快速回复 返回顶部 返回列表