人工智能是目前开发的一个很好的工具。它彻底改变了所有行业的技术,解决了人类面临的许多问题。但人工智能仍处于起步阶段,如果管理不当,也会造成很大的危害。人工智能可以在许多领域对人类构成危险,最好现在就讨论这些危险,以便将来可以预测和管理它们。
Success in creating effective Artificial Intelligence could be the biggest event in the history of our civilization. Or the worst. So we cannot know if we will be infinitely helped by AI, or ignored by it and side-lined, or conceivably destroyed by it.
– Stephen Hawking
这句话是由传奇物理学家斯蒂芬霍金在一次关于人工智能的技术会议上提出的。他是绝对正确的。牢记这一点,让我们看看人工智能在未来可能带来的 5 种危险。
1. 侵犯隐私
隐私是每个人都应得的基本人权。然而,人工智能未来可能会导致隐私丢失。即使在今天,您也可以轻松地跟踪您的一天。面部识别等最新技术可以在人群中找到您,并且所有安全摄像头都配备了它。 AI 的数据收集能力还意味着可以通过访问来自各种社交网站的数据来创建您日常活动的时间表。
事实上,中国目前正在研究由人工智能驱动的社会信用系统。该系统将根据所有中国公民的行为给他们打分。这可能包括拖欠贷款、在火车上播放嘈杂的音乐、在非吸烟区吸烟、玩太多电子游戏等行为。得分低可能意味着禁止旅行、社会地位较低等。这是人工智能如何导致访问生活的各个方面和完全丧失隐私的一个主要例子。
2. 自主武器
自主武器或“杀手机器人”是军用机器人,可以根据预先编程的指令搜索目标并独立瞄准。而且世界上几乎所有技术先进的国家都在开发这些机器人。事实上,中国一家国防公司的一位高管甚至表示,未来的战争不会由人类进行,使用致命的自主武器是不可避免的。
但是拥有这些武器有很多危险。如果他们流氓并杀害无辜的人怎么办?或者更可悲的是,如果他们无法区分目标和无辜的人并误杀他们怎么办。那么这种情况谁来负责呢?一个更大的问题是,如果这些“杀手机器人”是由不关心人类生命的政府开发的。那么摧毁这些机器人将是相当困难的!考虑到这些问题,2018 年决定自主机器人仍然必须接受人类的最终命令才能进行攻击。但随着未来技术的进步,这个问题可能会成倍增加。
3. 人类工作的丧失
随着人工智能变得越来越先进,它显然将接管曾经由人类完成的工作。根据麦肯锡全球研究所发布的一份报告,到 2030 年,全球可能会因为自动化而失去大约 8 亿个工作岗位。但随之而来的问题是“因此而失业的人呢?”好吧,有些人认为人工智能也会创造许多工作岗位,这可能会稍微平衡一下规模。人们可以从体力劳动和重复性工作转向真正需要创造性和战略思维的工作。人们还可以有更多时间与家人朋友在一起,从事体力要求较低的工作。
但这更有可能发生在已经受过教育并且属于较富裕阶层的人身上。这可能会进一步拉大贫富差距。如果在劳动力中使用机器人,这意味着它们不需要像人类雇员一样获得报酬。因此,人工智能驱动公司的所有者将获得所有利润并变得更富有,而被取代的人类将变得更穷。因此,必须建立一个新的社会结构,以便所有人即使在这种情况下也能赚钱。
4.人工智能恐怖主义
虽然人工智能可以为世界做出巨大贡献,但不幸的是,它也可以帮助恐怖分子实施恐怖袭击。许多恐怖机构已经使用无人机在其他国家进行袭击。事实上,伊斯兰国在 2016 年进行了第一次成功的无人机袭击,在伊拉克造成 2 人死亡。如果数以千计的无人机从一辆卡车或汽车上发射,并通过编程来杀死特定类型的人,这将是一种非常可怕的恐怖袭击,而且是由技术提供帮助的。
恐怖组织还可以使用自动驾驶汽车来投掷和爆炸炸弹,或者制造无需任何人工帮助即可跟踪运动和开火的枪支。这些枪支已经在朝鲜和韩国边境使用。另一个担忧是恐怖分子可以访问和使用上述“杀手机器人”。虽然政府可能仍然有道德并试图防止无辜人类的损失,但恐怖分子将没有这样的道德,他们将使用这些机器人进行恐怖袭击。
5. 人工智能偏见
不幸的是,人类有时会对其他宗教、性别、国籍等存在偏见,而这种偏见可能会在不知不觉中也进入到人类开发的人工智能系统中。由于人类生成的有缺陷的数据,偏见也可能蔓延到系统中。例如,亚马逊最近发现他们基于机器学习的招聘算法对女性存在偏见。该算法基于过去 10 年提交的简历数量和招聘的候选人。而且由于大多数候选人是男性,因此该算法也偏向男性而不是女性。
在另一起事件中,谷歌照片使用面部识别将两名非洲裔美国人标记为“大猩猩”。这清楚地表明种族偏见导致算法错误地标记人类。所以问题是“如何解决这种偏见?”如何确保人工智能不像这个世界上的某些人那样种族主义或性别歧视。好吧,处理这个问题的唯一方法是人工智能研究人员在开发和训练人工智能系统以及选择数据时手动尝试消除偏见。