当前位置: 绍兴青年团 > 科技 > 正文

怎么办?人工智能可能引发公众的强烈反对

发布时间:2019-01-11 19:11:28| 点击:

编辑: 绍兴青年团

导读:人工智能(938)谷歌(232)计算机科学(20)

人工智能

人工智能

[网易智能讯11月7日消息]研究人员表示,有关社会,伦理和政治方面的担忧正在加剧,人工智能急需更多监督.科技行业的专家警告称,人工智能的新兴领域可能会引发公众的强烈反对,因为它逐渐落入私营企业之手,威胁到人们的工作,并在没有有效监管或监管控制的情况下运行。

人才流失到私营企业不利于高校发展!

在有关人工智能的新系列报道中,行业内专家们强调了这项技术的巨大潜力,该技术已加快科学和医学研究的步伐,还使城市运行更加顺畅,提高企业效率.尽管人工智能革命前途似锦,但在缺乏监管机构,立法机构和政府监管的情况下,人们对该技术的发展有着越来越多的社会,伦理和政治方面的担忧.研究人员告诉,人们的强烈抵制可能会减少人工智能带来的好处!

专业知识和财富集中在少数几家公司手中,这个领域存在着巨大的多样性问题,今年10月,南安普敦大学计算机科学教授温迪·霍尔爵士联合主持了一份有关英国人工智能行业的独立评估报告.报告发现,人工智能有可能在2035年之前为经济增收6300亿英镑.但她说,要想获得回报,这项技术必须造福社会,她说,"人工智能将影响我们基础设施的方方面面,我们必须确保它有利于我们,必须考虑得面面俱到.当机器可以为自己学习和做事时,我们人类社会面临的危险又是什么?这很重要,能够理解这些问题的国家将成为下一次工业革命的赢家。

如今,开发安全,合乎伦理的人工智能的责任几乎完全落在了建造它们的公司身上.然而目前并没有测试标准,也没有任何组织能够监控和调查任何人工智能作出的不好决定或发生的事故?纽约大学当代人工智能研究所的联席主任凯特·克劳福德说:"我们需要有强大的独立机构,以及专门的专家和知识渊博的研究人员,他们可以充当监督者,让大公司对高标准负责.这些系统正在成为新的基础设施,重要的是,它们既要安全又能保证公平,许多现代的人工智能都是通过在海量数据集中经过训练后再做出决策.但是,如果数据本身包含了偏见,那么这些数据会被人工智能继承和不断重复。

今年早些时候,一个用来解析语言的人工智能被发现显示了性别和种族偏见.另一个则是用于图像识别的人工智能,它将厨师归类为女性,即使是在给秃顶男人拍照时也是如此.许多其他机构,包括在警务和囚犯风险评估中使用的工具,已被证实有歧视黑人的倾向!该行业存在严重的多样性问题,部分原因归结于人工智能歧视女性和少数族裔.在谷歌和脸书公司,五分之四的技术员工是男性.白人男性在人工智能领域占据主导地位,开发出了只针对男性身体的健康应用,将黑人称为大猩猩的照片服务,以及无法识别女性声音的语音识别系统.霍尔说:"软件应该由多元化的员工来设计,而不是普通的白人男性,因为我们不论男女老少,种族背景,都会成为用户。

测试不佳或出现使用故障的人工智能也同样令人担忧.去年,当特斯拉一款Model S的自动驾驶汽车的自动驾驶系统由于没能看到一辆卡车穿过高速公路时,导致了车内的美国司机死亡.美国国家运输安全委员会对特斯拉这起致命车祸进行了调查,批评特斯拉发布了一套缺乏足够防护措施的自动驾驶系统.该公司的首席执行官埃伦·马斯克是对人工智能安全与监管最为积极的倡导者之一。

然而,随着社交媒体在英国脱欧公投和2016年美国大选的准备阶段的使用出现了严重的问题,使用人工智能系统来操纵民众引发了越来越多的担忧.新南威尔士大学人工智能教授托比·沃尔什说:"一场技术军备竞赛正在进行,就看谁能影响选民".他最近写了一本关于人工智能的书,名为."我们制定了一些规则,限制了影响人们以特定的方式进行投票的可花费的数量.我觉得我们会有新的限制规则,限制你可以利用多少技术来影响人们,即便是在规模较小的情况下,操纵行为也会造成问题.马克·沃尔伯特说:"从某种程度上来说,我们的日常生活被人工智能解决方案所操纵".他是前政府首席科学家,现在领导着英国新的超级研究委员会——英国研究和创新委员会."在某种程度上,如果组织的行为让大量公众感到不安,它可能会引发人们的强烈反对?

谷歌

主要的人工智能研究人员向英国上议院人工智能委员会表达了类似的担忧,该委员会正在对人工智能的经济,伦理和社会影响进行调查.作为人工智能研究的主要大学之一,伦敦帝国理工学院提交的证据警告说,对该技术的监管不足"可能会引起社会的强烈反响,如果发生严重的事故或过程失控,可能会出现类似于反转基因食品的状况,伦敦大学学院的科学家们也对可能出现类似于之前强烈抵制反转基因食物的状况表示担忧,他们在实证中对同行们说:"如果大量人工智能的案例发展得很糟糕,可能会引起公众的强烈反对,就像曾发生的转基因生物事件那样;但科学家告诉。

工业领域人工智能研究的激增,推动了对有资质的科学家的巨大需求.在英国的大学里,博士和博士后都被科技公司吸引,他们提供的薪水是学术界的两到五倍.尽管一些高校科研机构正着手应对科技公司招聘热潮,但有些机构却无动于衷.在需求最为强烈的部门,资深学者担心,他们将失去一代人才,能以传统方式推动研究和教育未来的学生的人才。

,对社会影响最大的可能是人工智能.英国央行首席经济学家警告称,到2035年,英国将有15个工作岗位实现自动化,这意味着英国政府需要进行大规模的员工再培训,以避免失业率大幅上升.根据帝国理工学院的情感和行为计算教授玛雅·潘蒂奇的说法,短期的破坏可能会引发社会动荡,也可能会让人工智能利益所引发的不平等现象蔓延至少数跨国公司,美国人工智能协会主席苏巴拉奥·卡姆巴哈帕蒂表示,尽管技术经常造福社会,但它并非总是公平公正地让全社会共享福利.他说:"最近的技术进步导致财富的集中程度大大提高.我当然关心人工智能技术对财富集中度,不平等现象,以及如何让福利覆盖面范围更广带来的影响。

计算机科学

根据潘蒂奇的说法,学术界最优秀的人才正被四大人工智能公司,即苹果,亚马逊,谷歌和Facebook所吸引.她说,这种情况可能导致90%的创新为这些公司所有,因此权力的天平将从国家转移到少数跨国公司?沃尔伯特负责监督几乎所有英国科学研究的公共资金,他对于控制人工智能会阻碍研究这一看法持谨慎态度.相反,他认为,人工智能工具一旦投入使用,就应该仔细监控,以便及早发现问题,他说:"如果你不持续监测,你就有可能在人工智能发生故障时有漏掉某些信息的可能.在新的世界里,我们当然应该努力进行持续的实时监控,这样人们就能及时知道是否有任何事与愿违或出乎意料的事情将要发生,根据爱丁堡大学计算机视觉教授罗伯特·费舍尔的说法,:"理论上,公司应该承担责任,但现在处在一个灰色地带,他们可以说自己的产品运作正常,是云端出现错误,或者是电信供应商的问题,反正他们都不会同意自己要对此负责.显然这是一个全新的领域.人工智能让我们可以利用自己的智力,所以我们会尝试去做一些更有野心的事情.而这也意味着我们可能会面临更大范围的灾难!

最新关键词

推荐图文

  • 周排行
  • 月排行
  • 总排行

相关阅读

  • 美国用户钟爱智能音箱:谷歌、

    智能音箱已经快成为美国家庭的标配产品了,这一点都不夸张?根据Adobe送出的.报告显示,大约有一半的美国消费者将会拥有智能音箱,例如谷歌Home或亚马逊.不管是谷歌H...

  • 机器人会伤害你?科学家做了实

    聚焦AI,读懂下一个大时代。人工智能机器人当然,应用在现实中的隐藏的冲突和漏洞比比皆是,在我们这个拥有着先进的机器学习软件和自动化机器人时代,定义和实施人工...

  • 霍金:人工智能不会毁灭人类 反

    [网易智能讯11月9日消息]当一个由知名人工智能专家组成的小组被问及是否有可能开发出超级智能时,他们的答案是一致的:有可能.到现在,关于计算机是否比人类更聪明...

  • 未来人类智商拼不过AI?能不能

    我们应当借助大脑植入设备提升我们的认知能力。机器人网易11月9日消息,权威人士一直担忧未来机器人会超越人类;取代我们的工作!还有可能带来更多后果,中的场景一...

  • 美科院院士骆利群:长生不老违

    出品|科学家说栏目组第20期,骆利群,斯坦福大学教授,美国科学院院士,有人总结了骆利群的前半生:15岁进入全国重点大学,30岁即任美国名校博士导师,36岁斯坦福大学终...

  • 超级奶爸养成记!讲讲我与智能

    [网易智能讯11月10日消息]作为一名抚养孩子几十年的家长,在过去的10年里,感谢科技的发展让我抚养孩子的方式发生了明显的改变.我最小的孩子不仅仅只有两个家人,而...

  • 我们要担心的不是机器人杀手

    [网易智能讯11月10日消息]有一天,人工智能机器人将取代人类,成为地球上的主导生命形式,史蒂芬·霍金如是说.然而,尽管近年来人工智能和机器人领域取得了令人瞩目...

  • 码隆科技宣布获2.2亿B轮融资

    码隆科技CEO黄鼎隆和CTOMattScott,[网易智能讯11月10日消息]今天,国内人工智能企业码隆科技宣布获得来自软银中国领投的B轮融资:融资金额共计亿人民币.这是软银中...

  • 未来农场:从播种到收获将实现

    读懂下一个大时代。这并不是。机器人这种科幻小说情节早已在现实生活中出现.如今。[网易智能讯11月11日消息]无人机成群结队地在头顶上来回穿梭!机器人设备在地面...

  • 未来100年改变世界? 人工智能

    AI正被整合应用到家用机器人,机器人出租车以及心理健康聊天机器人中。聚焦AI,读懂下一个大时代?[网易智能讯11月12日消息]正如电力在过去一个世纪里改变了工业的...

svb9sgkus1h1cpcp tuxwtj1l8xjqtlrp