规范人工智能:伦理问题在自动驾驶领域最为突出

日期:09-30
人工智能自动驾驶伦理

规范人工智能:伦理问题在自动驾驶领域最为突出

文/张剑

编辑/鲁伟

人工智能技术飞速发展,但由此引发的相关问题仍然突出和多发。

9月25日,在“2021中关村论坛”上,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(下称《规范》)。《规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等六项基本伦理要求。

无独有偶。9月28日,“2021年世界互联网大会”举行闭幕新闻发布会,会上提出要坚持科技伦理,打击不法行为,人工智能发展要确保增进人类福祉,有效防范和打击黑客等网络不法行为,保护公平竞争和推动创新,消除数字鸿沟,让数字文明造福全人类。

有关专家对《财经》E法表示,自动驾驶、算法推荐、金融及医疗人工智能等领域,是目前人工智能伦理问题的多发领域。

新规提18项具体伦理要求

《规范》提出,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。同时,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

《规范》指出,人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范等共18项具体要求。其中,管理规范包含推动敏捷治理、积极实践示范、正确行权用权、加强风险防范、促进包容开放;研发规范包含强化自律意识、提升数据质量、增强安全透明、避免偏见歧视;供应规范包括尊重市场规则、加强质量管控、保障用户权益、强化应急保障;使用规范包含提倡善意使用、避免误用滥用、禁止违规恶用、及时主动反馈、提高使用能力。

加强风险防范方面,需要增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力;保障用户权益方面,在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。

上海交通大学网络信息中心副主任姜开达表示,人工智能技术以数据、算法为驱动,发展速度确实迅猛,已经深刻改变了人类的社会生产和生活模式。但人工智能技术的滥用也冲击法律与社会伦理、涉嫌侵犯个人隐私。所以,既要大力发展人工智能,又要高度重视风险和挑战,科学处理好发展和安全的关系。通过出台法律法规、伦理规范以及行业自治,降低负面影响,促进人工智能的健康和可持续发展。

事实上,针对人工智能伦理问题,欧盟、美国此前已颁布类似规范。

2019年4月8日,欧盟委员会发布人工智能伦理准则。该准则由欧盟人工智能高级别专家组起草,列出了“可信赖人工智能”的七个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

2019年10月,美国国防创新委员会发布了一份关于人工智能伦理原则的报告,这份报告名为《人工智能原则:国防部人工智能应用伦理的若干建议》,提出“负责、公平、可追踪、可靠、可控”五大原则。

自动驾驶领域问题最突出

人工智能伦理问题讨论最多的领域当属自动驾驶。2018年3月18日晚,在美国亚利桑那州坦佩市(Tempe),一位名叫伊莱恩·赫兹伯格(Elaine Herzberg)的行人被一辆正在测试的自动驾驶汽车撞倒,因伤势过重而不幸身亡。肇事的车内当时有一名驾驶人,但车辆由一个完全的自驾系统(人工智能)所控制。此事件成为全球首例自动驾驶汽车撞死人案,事发后引发了全球各地公众对人工智能中伦理、道德和法律问题的思考。屡被提及的问题是:究竟该由谁对这一不幸事件负责,是这辆自动驾驶汽车公司的测试部门,还是人工智能系统的设计者,甚至是机载传感设备的制造商?

9月13日,上海交通大学开学第一天,“人工智能思维与伦理”课程在闵行校区开讲。该校凯原法学院教授郑戈的授课内容围绕自动驾驶中的伦理问题及与现行法律的衔接展开。郑戈在“理性的人工智能”专题中提出,自动驾驶系统如何尽到注意义务?注意义务是一个重要的法律概念,法律上的过失就是指违反注意义务。自动驾驶达到L3、L4级别后(美国汽车工程师学会(SAE)提出,自动驾驶的L3级别为“有条件自动化”,L4级别为“高度自动化”),如果发生交通事故,该由谁承担违反注意义务的责任?

“《道路交通安全法(修订建议稿)》已引入自动驾驶系统开发单位的责任,但这个问题其实很复杂。自动驾驶系统是一个由感知、定位、决策和控制模块组成的复杂系统,每个模块都有开发者。发生事故后,5G网络服务供应商有没有责任?高精地图供应商有没有责任?这些单位的法律责任界定问题,需要进一步研究。”郑戈希望通过对这个问题的讲解,让学生认识到,今后开发自动驾驶系统的各个模块时要尽到注意义务,从而使整个系统成为“理性的人工智能”。

除了自动驾驶领域的问题,多位人工智能研究学者向《财经》E法介绍了人工智能伦理问题在其他领域的情况,主要可以归纳为:以算法为驱动的精准营销、内容推送领域,以及金融领域的智能风控、医疗人工智能等领域。

在算法驱动的精准营销领域,网络经营者通过收集并处理用户网络行为所形成的数据,绘制成数据化的人格图像,并以此为依据进行精准的广告投放。这样能够让经营者通过高效投放广告获得更高的营销收益比。但与此同时,“大数据杀熟”的问题屡被提及。

此外,用户的性别、年龄、地点、兴趣爱好、浏览行为、个人移动轨迹、手机型号、网络状况等信息,都是平台常规收集的内容。这可能会导致推荐系统过度收集用户个人数据,甚至在用户完全不知情的情况下跟踪和识别用户。

内容推送领域的问题如出一辙。定向推送以用户的喜好为主要标准,确实能为用户精准推送他喜欢的内容。但这也会出现由于用户频繁点击其所喜欢的内容,推荐系统便如同收到指令一般,为其源源不断地推送相似的内容,会导致限制用户接受其他新领域的信息,出现“信息茧房”。

在金融领域的智能风控领域,金融领域数据与用户的个人信用直接相关,金融机构在收集用户的海量数据(如年龄、收入、职业、学历、资产等)时,既要保证数据的安全性,即数据不被泄露、窃取或篡改,又要保证数据的准确性。现有的金融数据收集处理体系尚不完备、过程尚不够透明,用户的个人信用数据可能在用户不知晓的情况下发生负面变化;算法的缺陷,还容易引发大范围的歧视问题。

在医疗人工智能领域,人工智能在医疗场景下主要被应用于诊断、治疗和研究等领域。在这个过程中,可能出现算法安全和准确性问题,损害患者的身体健康;人工智能提供的医疗诊断方案源于算法,而算法存在的不可解释性与作为病人基本权利的知情权可能产生冲突。

资深人工智能专家、《计算广告》作者刘鹏对《财经》E法表示,虽然中国出台了人工智能伦理规范,但人工智能伦理问题依然复杂,面临的挑战还很多。从紧迫性角度来看,自动驾驶领域问题摆在首位,因为它与安全性密切相关。

自动驾驶技术升级完善的过程中,同样包含智能性与安全性的博弈,也包含复杂的伦理问题。刘鹏表示,目前智能汽车厂商倾向于把测试的环节尽可能缩短,让车的新功能先推向用户,在实际使用中去打磨和优化,并解决遇到的各种问题。但这种做法可能会让车主、行人等承担一定风险,在伦理上是值得商榷的。

美国政府为何要求台积电等上交核心商业数据 联想集团科创板IPO申请获受理,为红筹上市公司以CDR形式回A第一单
相关阅读: