随着我们现在的文化水平的提高。 人类对新事物的创新也在不断增长。 不久前,非常著名的科学家霍金提出了一个词:“超级人类”。
这个名字一听起来就让人感觉非常的强大。 那么伟大科学家霍金所说的未来超级人类到底长什么样呢?
事实上,有一些看似神奇的现象,但大多来自科学原理。 这个大胆的超人假设超级人类科技,着实震惊了很多人。 更令人惊讶的是,这个超级人类居然可以编辑自己的DNA。 大家都知道DNA实际上是遗传的。 如果可以随意编辑,未来人类还有什么是不可能的呢?
简而言之,超人就是超人。 由于DNA可以随意改变,人类目前无法用药物治疗的疾病可以通过改变DNA来解决。 它甚至可以延长一个人的生命或重新改变一个人的DNA。 但这项技术并不是每个人都可以使用。 这样的话,就会有两种人,一种是超人,一种是普通人。 随着时代的发展,普通人类会慢慢被淘汰。 只剩下超级人类了。
如果这个假设未来真的成真,社会上一些有经济能力的人或许能够成为超人,但这对于普通家庭来说也是一种奢侈。 毕竟,不可能每个人都成为超人。 可以想象,未来他们将成为超级人类,征服世界,势必引发新的世界大战。
我们科学技术的进步无疑是一件好事,但每项研究都有其优点和缺点。 如果弊大于利,那么这项研究肯定不会应用到生活中。 如果超人时代真的到来,你会选择什么? 你想成为一个超人,即使你想卖掉一切,还是想成为一个普通人?
从《变形金刚》中的汽车人到《星际穿越》中的智能机器人,虚拟世界中机器人的能力令人惊叹。 现实中,在工业和服务业两大领域,智能机器人正在颠覆以往的发展模式。 在塑造未来的颠覆性技术中,超级机器人会取代人类吗? 我们该如何应对几乎不可避免的超级智能机器人的出现? 这似乎是一个永恒的话题。 世界著名思想家、牛津大学人类未来研究所所长、哲学家、超人类主义者尼克·博斯特罗姆在其著作《超级智能》中,向人们展示了超级智能的前景和发展。 路线图及其危险和对策。
真正有效的智能应该有能力改变物质世界。 正如宇宙学中存在使所有物理定律失效的“奇点”一样,信息技术也正在走向“超人智能”的奇点。 尼克·博斯特罗姆认为,人类大脑具有一些其他动物大脑所不具备的功能,也正是这些独特的功能让我们人类占据了主导地位。 如果机器大脑在一般智能方面超越人类,这种新兴的超级智能可能会非常强大并且可能无法控制。 正如大猩猩的命运现在更多地掌握在人类手中,而不是掌握在我们自己手中一样,人类未来的命运也将取决于机器超级智能的行为。 在《超级智能》一书中,尼克·博斯特罗姆重点阐述了迈向超级智能的途径,包括人工智能、全脑模拟、生物认知、人机交互、网络和组织等,介绍了每条路径的设计思路并评估其实现超级智能的可行性。 结论是,人工智能是最有可能首先实现真正的超级智能的方式。
在科幻小说中,机器人不仅指钢铁机器人(人),还包括所谓的“生物机器人”,甚至早期的“克隆人”。 新一轮科技革命浪潮正在席卷而来。 机器人、自动化、新型数字化、超级智能等正在不断改变经济社会的各个领域。 超级智能时代,作为衡量一个国家技术创新和高端制造水平的重要标志,核心或主要问题不是“什么是人工智能?” 但“人类是什么?” “人类是为了什么?” 尼克·博斯特罗姆认为,“人工智能将很快超越人类智能”或“全面取代人类”,“在某些领域,许多机器和非人类动物已经表现出超人水平”。 例如,“蝙蝠比人类更擅长解读声纳信号,计算器比人类更擅长算术……软件在特定任务上的表现比人类更好”等等。在与人类的竞争中,机器人已经占据了上风。某些领域,或者在某些方面已经开始取代人类。
“2045年左右,人工智能将达到‘奇点’。超过这个临界点,人工智能将超越人类智能,人们需要重新审视自己与机器的关系。” 这句话出自美国未来学家雷·库兹·威尔的预言,随着科学研究的突破,似乎正在一步步成为现实。 人工智能超越人类智能只是时间问题,人工智能技术的发展也在一步步印证他的观点。 尼克·博斯特罗姆担心“它有可能导致地球上智慧生命的灭亡,或者永久、完全失去未来的发展潜力。” 作为一切争论的基础,人类害怕的不是人工智能,而是人工智能。 这就是人工智能的不确定性和可能性。 从先行者优势、正交性论证和工具收敛论证的思想出发,我们可以看到创造机器超级智能似乎肯定会造成生存灾难的担忧的广泛理由——“塑造地球生命的第一堂超级智能课”未来,可能存在非拟人化的最终目标,可能存在追求无限资源获取的工具性理由”,其结果很可能是“人类的迅速灭亡”。
机器人技术是综合性前沿技术的集合,人工智能的发展将提升机器人之间的智能交互水平。 尼克·博斯特罗姆在《超级智能》中指出:“我们之所以能够控制地球,是因为我们的大脑甚至比最聪明的动物的大脑还要复杂得多。” 然而,超级智能将对我们人类产生巨大的影响。 这是一个巨大的威胁——“完全成熟的超级智能可以出色地完成智能升级、战略规划、社会操纵、黑客技术、技术研发、经济生产等任务。这就是为什么科学家认为超级智能会控制人类”真正的危险现实是,第一个要实现的超级智能只能完成上述任务中的一两个,因此更有可能被其控制者用来增强控制。”
超智能时代的机器人一定会拥有非常高的智能水平,会在很多方面超越人类。 但机器人智能发展的总体趋势是越来越接近人类,而不是与人类竞争,更不可能取代或消灭人类。 自然界之所以拥有超过200万个物种,正是因为大多数新物种并没有取代旧物种,而是与现有生物交织在一起,挤入生态位,并建立在其他物种的成就之上。 在超智能时代,人类不会被颠覆,而是会变成类似基础设施的东西,就像互联网时代的软件一样。 互联网作为基础超级人类科技,是上层建筑。 如果我们不知道人类是什么,我们的角色可能会改变。 但人类之所以优于动物,是因为我们更有可能重新定义自己,而不是消失。 在《超级智能》一书中,尼克·博斯特罗姆不仅谈到了超级智能的优势所带来的风险,还谈到了人类如何解决这种风险。 因此,我们坚信,超级智能诞生后,仍然会以提高认知、改进技术、获取人类无法获取和利用的资源为主。 它可能并不能真正消除或取代人类。
《超级智能:路线图、危险与对策》,[英国]Nick /作者,张体伟、张雨晴/译; 中信出版社2015年2月版; 价格:55.00元; ISBN 978-7 -5086-5016-6/F·3321