• 资讯
  • News
  • 行业资讯
  • IndustryNews
  • 用人工智能预防自杀是善意,但也是道德绑架?

    行业资讯 | 时间: 2017-12-22 | EE Times | 编译:dc136|浏览量:1166

       Facebook开始采用人工智能(artificial intelligence;AI)辨识用户偏离正常贴文的行为,并对于可能出现的轻生念头发出警告。但这样做合乎伦理道德吗?
     
      在当今高度互连的世界中,我们不断产生和收集如此庞大的数据量,甚至已经超出人类能力所能全部过滤筛选的范围了。确实,人工智能的应用之一就是辨识这些贴文上的意图所表现出来的模式与偏差。因此,Facebook以这种方式运用AI,从其大数据(Big Data)数据库中撷取价值,虽然可能是出于善意的目的,但也引发对于道德感的顾虑。
    用人工智能预防自杀是善意,但也是道德绑架?
      为了能够更清楚掌握这个问题,在我不断的搜寻中,找到了一家名为“运算研究的普适资料伦理”(Pervasive Data Ethics for Computational Research;PERVADE)的组织。PERVADE组织与六所大学合作进行研究,并在今年9月取得了资金赞助,目前正致力于制订问题并积极寻求答案。
     
      我很快地与这家组织接触,针对Facebook以人工智能侦测自杀信号的道德问题征询了专家们的看法。后来有机会与该组织的一位成员Matthew Bietz取得了联系。
     
      Bietz告诉我,参与PERVADE组织的成员们正在研究普适资料的发展后果,包括不断地收集数据——不仅从我们发布到社交媒体的贴文,还来自“我们在上网时留下的数字轨迹”,例如我们以Google进行搜寻或收发电子邮件。他说,物联网(IoT)和可穿戴设备之间建立起新的联系,进一步促进了“我们所处空间的数据”主体日益增加。由于这个现像“相对较新”,因而对于“数据伦理”提出了值得探索的新问题。
     
      由于Facebook宣布不会将其自杀信号侦测工具扩展到欧盟(EU),我询问Bietz是否因为这项计划会违反欧盟的“通用数据保护条例”(General Data Protection Regulatio)?他坦言欧盟确实对于数据保护存在“一些世界上最严格的规定”,但他补充说,“以GDPR的标准来看,Facebook所做的是否违法,目前还不是完全明朗。”
     
      数据侦测与欧盟
     
      更准确的说,Facebook正冒险进入一种“未真正经试验的优势。但我猜测他们并不想成为测试用例。”
     
      Bietz说,Facebook的服务条款使其得以查看数据,因此,这样的行为并不会直接违反GDPR的隐私条例。但是,立法禁止公司仅根据“算法或由计算机自动进行分析”。
     
      这表示,如果算法在“没有人为介入”的情况下决定信号意义,并自行发出警告,那么这样的行为以GDPR来看就是错误的。然而,他说,如果只是利用算法“协助决定哪些贴文需要人们多加关照”,就可能在在法规允许范围。
     
      “道德的雷区”
     
      除了法规的问题,Bietz认为,Facebook的自杀侦测途径设定了一种“道德的雷区”(Ethical minefield),因为后果是如此的强烈。但这并不表示该公司所做的“必然是不道德的”,实际上还取决于“他们如何处理这些资料”,以及Facebook是否“值得我们信任”。
     
      目前,这是个悬而未决的问题。他表示,当Facebook的营利模式是基于有选择性的信息共享时,是否还能让我们相信它真的将自杀信号数据用于防范自杀以及改善社会问题的目的。为了证明其出于善意,Facebook应该尽快提供“信息如何分享的程度”,详细说明他们如何使用这些数据,以及如何保有其安全性。但是,Facebook的立场是我们只须要相信他们。
     
      Bietz说,我们现在面对的一部份问题是“前所未见的各种新技术及其应用”。因此,目前还没有明确的先例可用于指导道德决定。我们现正“探索一个全新的领域,不只是在技术上,在伦理道德方面也是如此”。此外,还必须取得一些方向来表达“正确的道德问题”。
     
      问题与结果
     
      Bietz表示,他赞成运用数据和算法来防范自杀的发生,并指出“危机求救热线”(Crisis Text Line)采用该方法来优先考虑对最紧急的情况做出反应。但Facebook并未详细说明其计划如何防范自杀,然而,Bietz认为,该公司也不应该自行尝试这项计划。他说:“如果我他们与来自公司外部的心理学研究人员密切合作,共同思考这些问题,我感觉会更好。”
     
      所使用的算法质量是也很重要,Bietz补充说。例如,过度谨慎可能会产生误报。但是,Facebook并未表明其算法的性质,或是说明计划如何处理这些热线。它将会持续使用原始算法或随着时间进行调整?同样地,Facebook并未透露任何细节。
     
      我们能够信任Facebook是合乎伦理道德的吗?由于社交媒体平台能够取得太多有关于我们的信息,现在必须提出这个问题。它不仅能从我们的历史讯息中辨识个人行为标准的“模式”,还可能根据朋友的贴文推断我们并未分享的信息。
     
      Bietz指出,我们的社会从来没有经历过这种范围缩小到个人层级的“监控”精确度,再加上这是一个“数百万Facebook账号”的庞大社群。如今,在这个全新的数据新世界,我们必须积极地寻找“道德的界线”。

    声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。

    您若对该文章内容有任何疑问或质疑,请立即与中国机器人网(www.robot-china.com)联系,本网站将迅速给您回应并做处理。

    电话:021-39553798-8007

    相关阅读:

    热门资讯

    • 【报名开启】第六届恰佩克奖颁奖典礼将...
    • 初评入围名单揭晓,超170家企业入围第六...
    • 后疫情时代,汽车行业需求将回暖,机器...
    • 工业机器人同质化严重,高喊创新却困于...
    • 碧桂园试水机器人餐厅,是大获全胜还是...
    • 不解决这些问题,我国机器人市场春天永...
    • 工业上机器换人带来的失业问题如何看待...
    • 政策助推下,国际科技巨头纷纷下注中国...
    • 地摊经济火了!机器人也“摊”上事儿了
    • 哈工大百年校庆与机器人的一百年