AI概论 第四周笔记 - AI and Society

前言
这是 AI 概论的最后一篇内容,主要讲的是 AI 和人性方面的问题。禁止转载。

Week 4 Introduction
简单介绍下这篇笔记:
  • AI 存在过度的炒作:AI确实正在改变世界,但现在媒体还存在过度的炒作。为了让普通民众、商业领袖 和政府领导可以快速上升职位,理解 AI 的前景还是相当重要的。
  • AI 存在局面性:前面几个星期说过,AI还存在一个局面行,并不是100%做得到。其实跟人一样,人也会犯错的,何况AI呢。
  • 种族歧视:AI可能对少数群体或其他团体,存在着不公平的歧视。
  • 高级AI攻击:例如,我们很喜欢使用的垃圾邮件过滤器,因为它使邮件系统能正常工作。但也有些垃圾邮件发送者 正尝试去攻击这些过滤器。即便我们继续开发新的AI技术,但还会受到一些新型攻击。
  • 发展人工智能。
A realistic view of AI
AI 对人类社会生活都产生了巨大的影响。我们需要对 AI 有一个客观的认识,不能过于乐观,也不能太悲观。如果你有听说过 金发姑娘和三只熊的故事,你就会知道故事里提到的粥 既不能太热,也不能太冷。故事里的床既不能太硬,也不能太软。

AI 也需要类似的 "金发姑娘原则" 因此我认为对于 AI 能够做的事也不能抱有太乐观的希望,当然也不能太过于悲观。

如果对AI技术太乐观而且不顾实际的话,会让人觉得AI是感知智能和超人工智能或强人工智能时代即将到来, 因此,就要投入大量的资源来抵御可怕的AI杀人机器。但是以这种做学术研究的角度来看,研究遥远未来的可能性并没有什么害处。比如研究 AI 哪一天会实现感知智能,这也没有什么害处。我们也不能过度投入资源来抵御一些中长期内都不会出现的风险。可能这几十年、几百年都不会出现,所以我觉得没有必要去害怕超级人工智能或强人工智能。这些不必要的恐惧会让我们分心且不去关注一些真正要解决的问题,也会让社会引起对AI的不必要恐惧。

反过来说,我们也不能对AI太过悲观,认为 AI 什么都做不了。有些事情 AI 不可能完成,所以 AI 的冬眠期将要到来。AI冬眠期是指在 AI 发展的历史中 陆续有几段时期AI被过度炒作,而当人们发现 AI 不能做到一切 人们就对 AI 丧失信心 并减少对 AI 的投资。

如今的 AI 技术 与几十年前冬眠期不同的是 AI 创造了巨大的经济价值。我们可以很清楚地预知它将继续在多个行业创造更多价值。 所以结合以上两点我们确定人工智能将在可预见的未来继续增长。

AI 还有其他一些严重的限制,作为人类社会,我们不希望基于性别,或是基于种族,去歧视一个人,而是希望人们得到公平对待。 但当给AI系统输入的数据不能反映这些价值时,AI就会产生偏见或者学会歧视某些人。

Discrimination / Bias
如果有一天,你问 AI:

男对女,就像爸爸对谁? AI回答:妈妈。当然这也可以说得通。

你又问:

男对女,就像国王对谁? AI回答:公主。基于互联网中常用的表达方式, 这个答案是说得通的。

但是你问AI:

男对编程人员,就像女对什么? AI回答:家庭主妇。 我认为得出这种答案是很不幸的,含有较低偏见。所以答案应该是女人对程序员。

如果我们想让人工智能理解 男人和女人都能是程序员就和男人和女人 都能是主夫/主妇一样,那我们就需要让它输出男人对程序员的结果是 就像女人对程序员,或者男人对家庭主夫。

基于这种性别歧视的问题是如何产生的?首先要理解人工智能系统存储单词的方式,(可以参考我博客的TensorFlow 官方自然语言处理系列 笔记

假设在坐标里面男是(1,1),编程人员是(3,2),女是(2,3),那么就得到这样一张向量图:

如果你要问AI去类比的时候,AI就会计算两条边平行的向量,这个时候我们得到(4,4)

很不幸的是 (4,4) 就是家庭主妇,这就导致了人工智能产生歧视,这种其实问题值得重视。

人工智能社区正投入大量的精力解决这些问题,对抗偏见我们逐渐有 越来越好的技术解决方法来减少人工智能系统中的偏见。

当人工智能系统从大量不同的数字学习,并用来存储单词时,其中有一些数字 跟这些偏见有关联,就将它们设置为零,这样做出来的结果就会让歧视少很多。第二个解决方案是尽量使用存在较少偏差和(或)更具包容性的数据。

Adversarial attacks on AI
尽管现代AI非常强大,但也有一定的局限性,特别在深度学习领域,有时候她会被人攻击。
比如有一个AI系统,让他识别一样东西,你如说是一根香蕉。如果在这个图片里面,香蕉的旁边放一张贴纸,则AI认为他不是香蕉。这样故意让AI输出不正确的结果,这种行为叫AI攻击。

那我们可以做些什么来防御这些对抗性攻击呢?幸运的是,AI世界一直以来在努力研究 新技术使它们更难被攻击。防御系统往往技术含量比较高,但有一些方法可以修改神经网络和其它AI系统,使他们更难被攻击。但这种防护功能会让 AI系统付出一定的代价。比如,AI系统的运行速度也许会变慢一些。不过,这是一个正在被研究的领域,还有很长的路要走。

Adverse uses of AI
人工智能用的好当然没有问题,但是人工智能用在坏人是手里,则会引起很多问题。

例如 DeepFakes :坏人可以用它合成虚假视频,里面的人可能从来没有实际做过这种行为,比如PHP

但是,如果这种类型的技术被用来针对一个人,就会让别人认为他们曾经说过或做过一些他们从未实际做过的事情。那么这些人可能会受到伤害,所以他们必须保留 证据来反驳证明视频中是他们从未真正做过的事情。目前已可以使用 AI 技术来检测视频是否为使用 DeepFake 制作,但在当今社交媒体的世界里一个谣言传播到世界各个角落的速度比真相能赶上的要快,所以人们非常担心 DeepFake 会不会伤到某个人。

世界上有些政府也在试图改善他们公民的生活,我尊重这些政府领导人 想要提升公民生活的愿望,但也存在一些压制人民的政权。正对他们的公民做错误的事 从而可能寻求使用 AI 技术对他们的公民进行压迫性监视。虽然政府有合法的理由来 改善公共安全和减少犯罪,也有一些对 AI 的使用也只会使公民更受压迫而不是生活得到提升。

我还是乐观地认为最终正义将会胜利。以垃圾邮件过滤器为例,有越来越多的人举报,就可以让垃圾邮件过滤器的正常工作,这样正义的数据就够用来喂入NN来改善垃圾邮件的程序。

AI and jobs
AI是自动化的进阶版, 在现代人工智能兴起之前, 自动化已经 对很多工作产生了巨大的影响。
我们可以自动化的东西 比以前突然多了很多, 因此这也加快了对 各行各业工作的影响 将有多少工作岗位被取代? 将有多少个新职位会产生? 我认为还没有人能对这些 问题有一个确定的答案

麦肯锡全球研究院,做了一项研究,他们估计,到2030年人工智能自动化 将取代4亿至8亿个工作岗位,这是一个非常大的数字。另一方面,这份报告也估计 AI创造的工作岗位数量可能更大。除了麦肯锡全球研究所之外,还有许多其他研究, 都是关于对会被取代的工作岗位和新出现的岗位。普华永道估计到2030年将有大约1600万个工作岗位被取代,英格兰银行估计 到2035年将有8000万个工作岗位被取代,所以没有人可以准确地预测 2030年会发生什么, 但可以感觉到的是,这对全球就业的影响将是巨大的。

我们如何帮助公民和国家应对人工智能对就业的影响?这些是一些解决方案,一,条件性基本收入保障。你可能听说过普遍基本收入保障,政府会向公民无条件发放一定的收入, 我认为人们应该有一个安全网,对于失业了,但能够自主学习的个人,我认为更有效的版本可能是 有条件的基本收入,这个机制提供安全保障, 但同时鼓励人们继续学习并投资于自己的发展。

第二,建立一个提倡不断学习的社会,如果你现在正在学习AI课程,你可能已经成为这个终身学习社会的一部分,旧的教育模式是你上四年大学,然后在剩下的40年"平行移动",这将不再适用于 这个快速变化的世界。通过政府,公司和个人让我们逐渐意识到所有人都需要继续学习,提高每个人都能获得更好地位,即便工作可能会被取代。因此,也要学会利用新产生的工作。不需要担心未来会被人工智能取代。当一个职业被取代,另一个职业也会来临。

Conclusion
以上就是AI的概论,带你了解了 AI 最基本的历史和现阶段以及未来的发展。除了禁止转载这篇文章,如果有问题的可以在评论区提问,但不能保证所有问题都可以回答,毕竟我也在学习,如果懂的就会回复。


Comments