响应AI治理原则,企业为技术应用“划线”

郜小平

2019年07月12日08:20  来源:南方日报
 
原标题:响应AI治理原则,企业为技术应用“划线”

  6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》。这是我国首次发布发展人工智能治理原则,提出发展负责任的人工智能。

  本周,旷视科技宣布推出基于企业自身管理标准的《人工智能应用准则》,旨在从人工智能企业自身的角度,规范、引导人工智能技术正确运用和健康发展,并确保其安全可控可靠,促进企业及行业生态可持续发展。更早之前,包括腾讯、百度旗下度小满金融等也纷纷响应人工智能治理原则。

  从隐私保护等多个维度作出规范

  随着人工智能技术不断介入人们的生活,相关的风险也开始不断暴露。如“大数据杀熟”,就引发了反映了人们对算法歧视的担忧之一,包括滴滴、携程、肥猪等都遭到质疑。此外、语音识别、人脸精准广告工具等算法应用都可能存在偏见和歧视。

  更严重的则是隐私泄露。今年初,来自深圳的提供人脸检测和人群分析科技公司深网视界就被曝出,自去年7月以来,其数据库出现大规模的数据泄露。这些数据库包含了超过256万用户的记录,包括身份证号码、地址、出生日期、识别其身份的位置。

  截至目前,深网视界官网已经能正常打开,但经历此事后,其社会形象严重受挫,在业务上也再无新消息。

  前车之覆,后车之鉴。同样从人脸识别起家的旷视科技,则试图给自己划定一条“红线”。根据此次发布的《人工智能应用准则》,旷视从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。

  例如,《人工智能应用准则》提出了“人的监督”这一概念,即人工智能应该在人类的监督下健康发展,以确保自身的安全性,并保障公众安全,“AI商业化的探索中触发了企业对于AI应用尺度的思考。因此我们希望以此倡导行业提早建立可持续发展的生态”。

  度小满金融也表示,为确保人工智能可信赖采取多种措施,已经从金融科技研发、拓宽金融服务边界及产学研跨界等方面给出新的破题思路。

  技术需要接受价值引导

  “要让伦理成为人工智能研究与发展的根本组成部分。”近日,由腾讯研究院和腾讯AI Lab联合发布《智能时代的技术伦理观——重塑数字社会的信任》如是说。

  腾讯研究院人士表示,就AI而言,虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为,“所以,这些代码并非价值中立,其中包括了太多关于我们的现在和未来的决定。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导”。

  企业也有了一个新的使命:科技向善。通过一张3岁的泛黄照片,腾讯优图利用AI技术突破“跨年龄人脸识别”,助力警方寻回被拐十年儿童。腾讯董事会主席马化腾也多次在公开演讲中阐释“科技向善”的愿景与使命。

  借助企业的技术,从更大范围推动社会发展。人工智能公司云从科技相关负责人也告诉南方日报记者,在安防领域,公安将人工智能技术用于寻找走失人员及关爱孤寡老人上,以往民警需要每天上门查看孤寡老人状态,现在可以通过人脸、人体及轨迹技术确认孤寡老人是否活动,如有异常立即上门。

  “从我接触到的一些科技企业来看,他们是不太愿意讲科技伦理的,因为这会制约他们的创新,对这些企业来说,他们的发展目标其实是不太清晰的。”中国社科院哲学研究所研究员段伟文说,科技向善应该成为企业最基本的原则和要求。

(责编:赵超、毕磊)