上周四在旧金山,谷歌因员工抗议将人工智能用于军事目的而感到震惊,谷歌表示不会将人工智能用于武器或侵犯人权的监视。但谷歌将会继续与政府和军方合作。
新规则是谷歌公布的与使用人工智能有关的一系列原则的一部分。 在公司的博客文章中,首席执行官为其人工智能应用提出了七个目标。 其中就包括”避免产生或强化不公平偏见”和”对社会有益”。谷歌还详细介绍了将不会从事的技术应用,包括人工智能用于以造成或直接造成人身伤害为主要目的的武器或其他技术,以及收集或使用信息进行监视的技术,违反国际公认的人权准则。
但谷歌表示,将继续与政府和军方合作,在网络安全、培训和军事招募等领域使用人工智能。如此强大的技术对其使用提出了同样强烈的问题。人工智能的开发和使用方式将在未来多年会对社会产生重大影响。当谷歌公司获得在五角大楼的Maven项目中使用人工智能合同时,人们对谷歌的潜在用途感到担忧。 其用途就是来解读视频图像,并可用于改善无人机的打击目标。超过4000名谷歌员工签署了一份抗议该合同的请愿书,少数员工辞职。作为回应,谷歌表示不会在明年到期时重新续签Maven合同,并承诺起草一套适用于人工智能的使用准则。
目前尚不清楚这些指导方针是否会阻止谷歌继续执行Maven合同,因为谷歌一再强调,其为五角大楼的工作并非出于”冒犯的目的”。谷歌将自己的未来押在了人工智能上,该公司高管认为,人工智能技术的影响力可能堪比互联网的发展。谷歌推动了人工智能的发展,在早期用于诊断疾病和减少电子邮件中的垃圾邮件等任务。 但谷歌也经历了与人工智能相关的一些风险,包括YouTube推荐将用户观看极端视频或Google相片图像识别软件,将黑人分类为大猩猩。
尽管谷歌的大多数人工智能指南是对一家以利他主义目标为傲的公司来说并不令人意外,但它也包含了一条值得注意的规则,即如何在公司以外共享其技术。如果谷歌意识到使用与这些原则不一致,就会阻止或停止使用谷歌人工智能技术的权利。与大多数顶尖企业的人工智能实验室一样,谷歌公开发布了大量人工智能研究成果。这意味着其他人可以重新创建和重用谷歌的许多方法和思想。但是谷歌也加入了其他实验室的行列中,说如果谷歌相信其他人会滥用其研究成果,则可能就会阻止某些技术的研究。
隶属于谷歌母公司Alphabet的高级人工智能实验室DeepMind正在考虑是否应该停止出版某些研究,因为这些研究成果可能是危险的。由特斯拉首席执行官埃隆•马斯克(Elon Musk)等人创建的实验室OpenAI,最近发布了一份新章程,表明该公司也可以做很多同样的事情,尽管这些是建立在公开分享所有研究成果的原则之上。