关于人工智能,霍金曾经发出过警告。他认为,智能技术会严重威胁人类,随着科技的发展,人工智能将学会独立思考并适应环境,而到那时,人类的未来将会面临着很多来自人工智能的危险。虽然人工智能在现在看来是一种有益于人类的技术,但是一旦它们摆脱了人类的控制,就将会成为人类最大的威胁。为此,霍金还在《独立报》上发表了一篇文章,在这篇文章当中,霍金对约翰尼·德普导演的关于人工智能的电影《超验骇客》进行了评论。
《超验骇客》讲述的是这样一个故事:维尔卡特是人工智能领域首屈一指的研究者,很多年以来,他一直致力于最有人性化的智能机器人研究,他所开发的机器人总是能够全方位地结合人的感情和智慧来为人类服务。后来,维尔卡特博士要进行一次关于“超验骇客”的智能机器人试验,他企图将自己的大脑载入电脑,以此来制造一台有自我意识的计算机。这个“超验骇客”试验让维尔卡特博士一举成名,但是他也成了当时一些反科技分子的眼中钉,反科技分子开始竭尽一切来阻挠威尔卡特的试验。
然而,令这些反科技分子没有想到的是,他们的极力阻止反而促进了维尔卡特的“超验骇客”的进展——他们在无意中成了这项试验的催化剂。维尔卡特的妻子以及他最好的朋友马克斯同样也是“超验骇客”的研究员,他们共同组成了一个三人科研小组。不过,关于“超验骇客”的试验自公布以来就备受争议,维尔卡特的妻子渐渐地察觉到自己的丈夫已经不再是单纯地进行试验研究,而是逐渐转变成对权力的追求,这不禁让三人的共同合作变成了担忧——摆在他们面前的问题不是能不能继续试验下去,而是应不应该继续这项研究。但是,人们的担忧逐步变为现实,试验的结果关乎着整个人类的命运,维尔卡特开始无处不在,而人们也无法知晓和预料,在他的掌控之下,自己以及人类未来的结局会怎样,或者是永生,或者是灭亡,但真正可怕的是没有人能够阻止维尔卡特。
通过这部电影,我们可以看到未来人工智能可能超越人类的后果。而霍金则表示,如果仅仅将这部电影当作一部科幻作品,而不去真正重视人工智能在未来对我们产生的影响和后果,那么这种行为将有可能成为人类历史当中的最大错位。如今,各类电子助手的产生仅仅是一个开端,它们对人类的各类活动都会有很多帮助,不过在将来的先进技术面前,这些都会成为最低端和苍白的存在。所以,霍金一直都对人工智能表示担忧,他甚至认为人工智能的出现就是人类历史上所犯的最大错误。在霍金看来,人工智能具有无限的潜力,只要出现合适的时机,人工智能完全可以超越人类的智慧,进而摆脱人类的控制。他说:“成功制造出一台人工智能机器人将是人类历史上的里程碑。但不幸的是,它也可能会成为我们历史上最后一个里程碑,除非我们能学会如何规避这种风险。”在霍金看来,人工智能的发展将会导致人类的终结。
关于人工智能,相信每一个人都会有所了解,它的英文为Artificial Intelligence,所以科学家也称人工智能为AI。人工智能是一门新的技术科学,是计算机科学的一个分支。它主要研究和开发用于模拟、延伸和扩展人的智能,并了解智能的实质,并在这样的基础之上生产出一种能够以人类的智能为基础,和人类智能相似的智能机器,包括机器人、语言识别、图像处理和专家系统等,这些都是对人的意识和思维的模拟。但是需要区别的是,人工智能并不是人的智能,但是人工智能可以做到像人一样去思考,也很有可能超越人的智慧。它的定义分为两个部分——“人工”和“智能”,而当前人们最为关注的即是“智能”,愈来愈被重视的也是“智能”。美国斯坦福大学著名的人工智能研究中心尼尔逊教授曾经对人工智能做出过这样的定义:“人工智能是关于知识的学科——怎样表示知识以及怎样获得知识并使用知识的科学。”不过,对于尼尔逊教授对人工智能的定义,人们也有不同的观点,麻省理工学院的温斯顿教授就是其中一个,他认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”不过无论是哪一种定义,它都反应了人工智能的一个基本内容,即它是研究人类的智能规律,并以此制造出模拟人类智能的一门学科。如今,人工智能已经和空间技术、能源技术并称为世界三大尖端技术,同时,它也和基因工程、纳米工程并称为三大工程。随着人们对人工智能研究的深入,人工智能已经逐渐成为一个独立的分支,在理论和实践当中都取得了令人满意的成果,而智能化研究也渐渐成为一个完整成熟的系统。
但随着人工智能的发展,人类对它的恐惧也日益加深。霍金对人工智能的威胁,曾经做过一次非常中肯的评价,他说:“人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。”可以说,霍金的这个观点是非常有道理的,因此也获得了很多知名人士的肯定和支持。其中,现实版的钢铁侠埃隆·马斯克就曾对霍金的观点声援说:“人工智能是人类生存最大的威胁”,而微软公司的联合创始人比尔·盖茨也同样表示认同霍金的观点,他认为,未来10年内,在某些知识领域中,机器将会变得比人更加聪明。之所以这样说,是因为比尔·盖茨认为,在接下来的10年里,人类生活的很多领域将会被机器人所替代,例如驾驶汽车、管理物流等。同时,比尔·盖茨还向人们推荐了很多关于人工智能的书籍,例如《超级智能》《掌握运算法则》等。另外,比尔·盖茨还说过:“我属于担心超级智能的阵营。最初,机器可以为我们做很多事情,而非超级智能。如果我们能够管理好它,它应该可以发挥积极作用。但是数十年后,人工智能将变得足够聪明,值得我们去担忧。我同意埃隆·马斯克等人的观点,并且不理解为何有些人对此毫不担忧。”除此之外,英国科学协会主席戴维·威利茨说:“如此多的人对人工智能感到忧虑并不令人感到惊讶。创新经常令人感到恐惧,但请记住,经济和世界都在不断变化,新兴技术的崛起和采用都需要时间。这项研究显示,在我们持续创新时,也需要聆听公众的恐惧。”
而越来越多的人开始对人工智能带来的威胁开始感到恐惧。据英国的一项社会调查显示,有将近80%的人认为,在未来的100年之内,人工智能将会对人类的生存产生威胁。马克斯和霍金一样,将人工智能当成了人类最大的威胁,他认为,人类在未来将会沦为超级机器人的宠物。霍金则更加直接地表示,在未来的一段时间内,人工智能继续发展,这种重大技术的灾难将会威胁到人类的发展和生存。“在未来100年内,结合人工智能的计算机将会变得比人类更聪明。届时,我们需要确保计算机与我们的目标相一致,我们的未来取决于技术不断增强的力量和我们使用技术的智慧之间的赛跑。”