智能时间简史读书报告阅读报告800

关于人工智能----读雨果《智能简史》后感和点评
人工智能的标志性产物是计算机,计算机由开始的信息工具发展到现在的智能机器可以说是一个伟大转折,但是我要说的是任何进步的科学的都有其两面性,一面是好的,另一面是坏的,没有什么事情不是矛盾的,也因此我可以看出雨果先生作为人工智能之父他即使不反省到自己矛盾的处境,这种矛盾也会以潜移默化的形式存在,矛盾是一切事物存在的意义状态,没有什么不是矛盾的,没有什么不是由其两个对立面存在的,而人是世界的中心也即核心,人的存在本身也就是一个矛盾,什么痛苦和快乐,一切的感受都是矛盾的存在,在数学里面矛盾就是一个大和小或多和少的对比,因此,如果按照人工智能发展的趋势,那么,人工智能机器的职能就会随数字的无限性上升,这样就让人感到恐怖,这也是雨果先生所担心的。
人工智能作为科学技术利用的社会环境,任何物质生产的手段都要用于特定的社会环境,现在的人们觉得自己的生活在结果上是享受到了物质的优裕,而在其工作过程中却觉得自己只是机器的一个零件而已,人的生活节奏机械化了,人的生存压力不仅没有因为科学技术的进步而显得轻松,反而是压力越来越大,神经紧张度和机器的张弛一样,也就是讲机器利用的社会环境决定了机器对于人类的意义,机器作为人手里的劳动工具会因为劳动关系而表明机器与人之间的关系,机器作为人的发明物是人发明了机器或机器是被人所发明的,但是机器的运作过程或运用机制在现代表明的是任何机器一体化了,也即人在工作中被机械化了,人跟随机器走,机器是怎样操作的,人就如何跟随起来,人没有不使用机器和使用机器的熟练程度和使用频率的选择,一切都在竞争中度过,因此市场的竞争机制会把人的工作压力和负担增长到一个惊人的程度,使人的身心失调,比如一名打字员,他会因为外来的业务负担而有点不堪承受,他会感到手指发麻,注意力的集中程度达到了一个细微的点,排除了任何的没有必要的杂念,否则就是失败的,因为机器的操作是一个程序问题,时刻得保持紧张的神经。这种磨练或折磨对于人类是无法想像的,到了一个令人恐怖的境地,但在我这里要说明的是人工职能爆炸,也就是雨果先生对人工智能的发明创制和生产都会因为一个竞争机制和不断的递增膨胀,他的关于人工职能的恐怖在我的研究里,是科技发展极限反映到社会经济学中的一个领域,包含在“市场大爆炸”的全局恐怖灾难中。
在这里我们还提到一个学术问题,这个问题是“科学家的心理学”,也就这个心理学反映科学家在研究创作理论解释上所表明的心理现象,雨果对于人类可能被人工机器即这么一个主导物种所吞灭的威胁本身反映了科学家的于世态的恐怖,因为雨果先生的研究都是理论性的,数学性的,数字在理论上是极其庞大的可以达到无限,因此,他们的研究发明的产物也是科学性带有数字产物的存在形式,如此会在数字领域进入恐慌,这也是我对雨果研究心理的一种探索,如果一切寄托理论,因为在我看来,科学技术的现实和与理论相对应的现实是一致的,因为科学技术理论从撰写到实践是一体的,没有任何的误差,所以雨果先生的恐慌在科学理论上是成立的,在现实上也是成立的。他的恐惧是科学的恐惧,这种恐惧在包含心理失常的同时更有科学分析的基本依据。
那么,最后我要对他的那本书做一个评价,《智能简史》是一本对人类科技发展趋势的预测,其中主要强调了可能的严重致命的后果,这个后果在我看来并不是机器人超常诞生超越人类的威胁,而是人类如何避免世界性的战争,因为军事武器是人工智能最大的物群和最有可能危害人类安全,他的运用可能会因为国家与国家之间的一些小事或摩擦,但对抗起来危害则是无法想像,这或许是人工智能最令人担忧的发展项目,并且这个项目会和正常的积极的物质生产一样同时运用的军事并且也一道迅猛发展起来,有多么大的生产力就要多么大的维护这么一个大的生产力或生产水平的安全保障系统。雨果先生的《智能简史》其中贯彻了两个大的思想,一个是地球主义者,一个是宇宙主义者,这两种思想是相互矛盾的,是对抗的,很显然宇宙主义者是支持智能进一步发展的,地球主义者则反之,那么我这两个都不过于推崇,因为我要说的是,没有一个是完全正确的,而是其命运都是一样,因为对于未来社会关系还有待进一步思考,应该变革还是怎么着,这决定了人工智能运用的社会环境,如果不谈社会环境,那么人工智能是祸是福无从解释,也无从解决!
人工大脑之父雨果:人工智能未来或取代人类
&&智能简史&&部分电子版
JOYO销售键接:
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。全 部
书 名
作 者
加载中,请稍候...
加载中,请稍候...
&&&科普读物
&&&智能简史:谁会代替人类成为主导物种
&&&智能简史 导言(1)
智能简史 导言(1)
我是雨果·德·加里斯教授,一个设计和制造“人工大脑”的研究机构的负责人。研究这个领域是我的专长。但我不仅是一个研究者和科学家,也是一个有着政治和伦理意识的社会评论家。我十分担心我的研究结果会在21世纪下半叶给地球上的人类带来我所恐惧的后果。
你可能会问:“既然你对现在进行的工作可能会给人类带来的负面影响感到如此焦虑,为什么不干脆停下来去做点别的呢?” 事实上,我认为我正建造着一个在未来几十年内,将会成为神一样无所不能的东西(虽然在我有生之年可能看不到它的完成)。制造神一般的生物的期望,带给我一种宗教般敬畏的感觉,这感觉进入我的灵魂深处,强烈地激发我继续这项工作,尽管那些可怕的负面效应可能会接踵而来。
对此,我感觉似乎要精神分裂。一方面,我的确非常想制造这些人工大脑,并尽可能将它们制造得极其聪明。我把这当作人类追求的一个伟大目标,我将会在后面的章节里,对这个问题进行深入的讨论。另一方面,我又对人工大脑制造成功将产生的影响感到不寒而栗。因为这个成功同时也意味着人工大脑最终会比我们生物大脑智慧很多倍。这一点,我也同样会在本书后面的章节里进行深入的讨论。
具体说,作为一个职业的人工大脑制造研究者和曾经的理论物理学家,我认为,对于21世纪科技所产生的“高智机器”的潜在能力,我比大多数人看得更清楚。所谓“高智”,是指比人类大脑智慧不止2倍或者10倍,而是万亿个万亿倍的人工大脑,也就是真正神一样的东西。如此巨大的数字对你来说,可能更像是科幻小说而不是任何可能的未来科学。在本书的第3章我将解释一些21世纪科技的一些基本原理,我相信这些科技将允许人类(如果人类选择这样做的话)来制造神一样的机器。我会让你相信,这不是科幻小说,因为它有着充分的理由迫使你相信这些令人毛骨悚然的巨大数字。我将尽可能地用一种简单清晰的方式来陈述,以便人们不需要成为一个“火箭科学家(rocket scientist)”(美国人的说法,意思是“一个非常聪明的人”)就能够理解它们。这些基本概念可以被任何人所理解,只要他们愿意对这个研究花上一点精力。
第3章将介绍一些难以置信的科技,它们使制造神一样无所不能的高度智能机器成为可能。你将接触到许多伦理、哲学和政治问题。 因为人类制造这些高智能机器的前景会引发一些非常重要的问题。本书将从各个角度讨论这些问题,我不会装作知晓所有的答案,但我会尽我所能。
在现代历史上,“摩尔定律”一直是一个伟大的科技经济趋势,它描述并解释集成电路或者芯片的运算能力(例如,电子元件密度、电子信号处理速度,等等)每年都成两倍增加。这个趋势自从英特尔微处理器制造公司创始人之一戈登·摩尔1965年提出以后,经验证一直是正确的。如果你把一个数一直乘以2很多次,你会得出一个非常巨大的数字。举个例子,2乘以2乘以2乘以2……(10次)等于1 024。如果你这样乘20次会得到1 048 576,也就是大概100万。如果你这样乘30次,你会得到10亿,乘40次会得到万亿,等等。摩尔定律在过去的40年一直是有效的,以至于倍数增加得到的数字非常巨大。我称之为“巨大的摩尔倍增”。
摩尔定律是芯片上电路尺寸不断缩小的结果,以至于电子(一种基本粒子,它在电路中的流动形成电流)在电子元件(例如两个晶体管)间传递的距离被缩短了。根据爱因斯坦的理论,物体可以移动的最快速度是光速(大概300 000千米/秒),并且这也是电流必须遵守的自然常量。如果两个电子元件间的距离被缩短了,它们之间电子信号的传递距离也将缩短,因此,通过这个距离所需要的时间就会更少(以恒定的光速)。
芯片制作公司在过去几十年里投入了巨大的精力来使电路变得更小,使之分布得更加密集,以便让它们运行得更快。微处理芯片运行越快,就会越经济。如果你是加州“硅谷”中一家制造芯片公司的CEO,而你的竞争对手比你早6个月在市场上推出一款比你(的产品)快30%的芯片,那么你的公司可能会破产,而竞争对手的市场份额会大幅增长,因为每个人都想拥有一台更快的计算机。因此,在过去的几十年,电子线路变得更小更快。全 部
书 名
作 者
加载中,请稍候...
加载中,请稍候...
&&&科普读物
&&&智能简史:谁会代替人类成为主导物种
&&&智能简史 导言(7)
智能简史 导言(7)
我希望你理解这个类比。如果我们制造人工智能机器导致人类最终被灭绝,拥有神一样智慧的机器人会创造出怎样的、类似贝多芬第九交响曲一样的奇迹呢?作为人类,我们太愚蠢了,以至于想象不出。我们是如此的低等以至于没有能力去鉴赏这些。就像让老鼠来研究爱因斯坦广义相对论一样,人类根本就不可能去理解,因为我们根本就不具备理解这些所必需的神经电路。
但是你会问,如果我内心里是一个宇宙主义者,那我为什么写这本书呢?答案是,我不是100%的宇宙主义者。如果我是个纯粹的宇宙主义者,那么我将会安安静静地从事我的人工大脑制造研究,而不会去向公众敲响人工智能问题的警钟。当我临终之时,我会为我被认为是“人工大脑之父”而自豪,但是如果历史谴责我是“大规模死亡之父”的话,那么这个前景真的让我很害怕。我第二任妻子的母亲仍然对奥斯维辛集中营的纳粹生活非常后怕。我清楚大屠杀给人类情感上带来的阴影是会伴随人一辈子的。
我写本书的目的是给出一个警告,我认为在宇宙主义者的工作发展到一定程度前,应该给予人类机会去选择停止他们的工作,如果那是大多数人的选择。我应该停止我的人工大脑研制工作吗?答案是否定的。我认为制造近于人类程度的人工智能机器是非常困难的事情,需要几十年的时间去解决。在未来30~40年内,机器人的人工智能将发展得足够高,而变得对人类非常有用。机器人将负责大多数的工作,它们会从事很多枯燥、肮脏和危险的工作。人类将会从这些工作中解脱出来,转而去从事更有回报的工作,去做更有趣的事情。
现在停止人工大脑的研究是很不明智的。然而,当人工大脑真正开始变得聪明起来,并且非常迅速地变得非常聪明以至于(在处于一个“拐点”的时候)成为威胁时,人类就应该准备决定是否继续。在这个关系到整个人类生存与否的问题上做出正确的决定是非常重要的,而对人工智能问题的必要讨论则应该越早越好。在人工智能时代来临之前,应该有足够的时间去理解这个问题的复杂程度。
在公开场合,我是地球主义者,我在试着警告大家。私底下,我又是一个宇宙主义者。就像我在本书中提到的,这个问题困扰着我,让我左右为难。当人工智能的辩论真正开始后,数十亿人将会和我有同样的感受。从地球主义者的视角看,作为一个宇宙主义者就像一个“种族怪物”一样(物种杀手),他会接受人类将被消灭的风险。这是这个形式的固有本质。是否要制造这些人工智能机器只有两个答案—— 制造或者不制造。决定制造它们的同时就是接受它们可能会把我们消灭的风险。另一方面,不去制造它们就是决定不去制造“神”,一种弑杀“神”的行为。从宇宙主义者的观点出发,地球主义者是“弑神怪物”。
之前,有些人认为,通过把人类自己变成人工智能机器,可以化解宇宙主义者和地球主义者之间的冲突。我们可以给人类的头脑等加一些成分,使他们成为“半机器人”(半机器生命体,比如,一部分是人,一部分是机器)。我个人觉得这样的看法很幼稚,除非整个人类向人工智能人的转化是一样的快,然而这显然是不可能发生的。
一颗糖粒大小的人工脑潜在的计算能力可能比人类大脑的计算能力要高几十亿倍。对于地球主义者来说,让这样的一个颗粒融入人脑而使之成为半机器人,是“伪装成人类的人工智能机器”。地球主义者会像对待人工智能机器一样仇恨半机器人,并且会把它们两者都消灭掉。有一个人类的外表,并不会让地球主义者觉得半机器人的威胁会减小。
让我试着用一种更形象的方式来解释地球主义者对半机器人的憎恨,可能女性会比男性更有体会。举个例子,一个刚生了孩子的年轻母亲,决定把自己的孩子变成半机器人。她只需把“一颗糖粒”放在孩子的脑子里,就能把孩子变成人形的人工智能机器。“孩子”将只有万亿分之一思想是人的思维方式,其余的脑容量(也就是大脑的)都是人工智能机器的思想(无论是什么)。结果,这个母亲“杀死”了她的孩子,因为它再也不是人类了。它只是“伪装成人类的人工智能机器”,是和她不同的。

我要回帖

更多关于 万物简史在线阅读 的文章

 

随机推荐