人工智能时代读后感,书的原名是《on,Intelligence》,本意是关于智能的讨论,翻译书名《智能时代》和副标题不是很切题,会给人...
人工智能时代读后感
书的原名是《on Intelligence》,本意是关于智能的讨论,翻译书名《智能时代》和副标题不是很切题,会给人错误的第一印象。以下是我整理分享的人工智能时代读后感的相关资料,欢迎阅读!
人工智能时代读后感篇一第一次读智能时代,是通过朋友的豆瓣阅读邀请码下载到手机上看的。起先并没有太认真阅读,只是在下班路上随手翻几页,以为这就是写现在比较热门的关于智能设备或者智能生活方式的乏善可陈的书,毕竟书名"智能时代"给我第一印象就是如此。实际读的时候才发现,这是一本讲人的智能和计算机能否产生类似智能的书。书的原名是《on Intelligence》,本意是关于智能的讨论,翻译书名《智能时代》和副标题不是很切题,会给人错误的第一印象。
抛开书名不说,《智能时代》是我几年内读过最好的书之一,作者——杰夫•霍金斯的文笔很简洁,这本书翻译的水平也很高,文中很客观和批判性地描述了智能和人工智能研究,并阐述了作者自己对智能的理解。本书一推出就获得两个诺贝尔奖得主及专业领域人士的大力推荐,考虑到霍金斯本人是企业家而不是职业科学家这一点,是十分罕见的。
我从小经常思考关于智能的问题,这本书能解答我很多疑惑,读书时那种开悟的感觉只能用醍醐灌顶来形容。还记得初一的某天下课回家,我骑着自行车,突然产生了一个疑问——我的手是怎么掌把的,我没有有意识地控制哪根手指放哪个位置啊?然后我撞了汽车。如果你和我一样,曾经思考过这类问题,那么本书绝对是你的菜。
霍金斯在书中首先回顾了当今人工智能研究的历程以及自己探索的经历,客观批判了"智能行为派",他认为智能是系统的内在属性,和外在表现无关。比如一个人在静静思考的时候,虽然没有表现出任何行为,他也是有智能的。退一步来讲,假使通过行为来判断是否有智能,当下的计算机也不合格。计算机要能识别图片,必须设计一套视觉识别算法,计算灰度、色阶、轮廓等;识别语音要设计语言算法,计算声波频率、音调、匹配语义等。图片算法和声音算法之间没有任何关联,从术语到计算过程完全不同。但是对于大脑来说,声音和图像在大脑中的处理过程很类似,只是接受刺激的感官不同。把实验动物幼崽的视觉神经接到本来应该发育听觉的位置,这些动物都能发育出正常的视觉——而如果把计算机的摄像头接到话筒上,结果可想而之。作者并非在否定算法本身,无疑,大脑也有自己的算法,这个算法是高度抽象的,能根据信号输入的不同发展出相应的知觉。相比之下,计算机算法毫无变通的可能性。从这两点出发,作者认为以往的计算机智能研究是一条死路。
那么智能应该是什么样的?霍金斯从日常生活出发,通过对学习、记忆、回想等等行为的分解,结合脑部神经结构,提出了产生智能的"记忆——预测"框架。整个推断过程非常精彩,在此就不剧透了,以免破坏了阅读乐趣。
这个系统的核心在于"恒定表征"这样一个概念,霍金斯认为人类(或海豚猴子等其他动物)之所以能认知世界,依赖于对事物高度抽象的能力。这种抽象能力,不是指刻意训练的逻辑思维能力,而是智慧生物由大脑结构决定的固有能力。举个例子:当我看到我家的小狗,我能意识到它在附近;当我听到它熟悉的叫声,我也能意识到它在附近;甚至当我只是看到它掉在沙发上的毛,都能推断出它肯定爬上过沙发。我并不一定直接看到它,是如何判断它是否在附近呢?这就表明我的大脑有关于这只狗的"恒定表征",不以我观测的方式转移。我认识我家的狗,无论它是蹲着还是趴着还是把脑袋藏在沙发下面,我都能意识到它的独特存在。"恒定表征"也就是人们常说的"理解"某个事物,对于计算机来说,目前的技术只能按部就班地计算,没有理解的产生,更无所谓智能。
恒定表征这个概念并非是霍金斯的原创,很多哲学家和科学家都有过类似的思想。比如大哲学家康德曾论证:人的心智拥有空间和时间的形式,独立于经验。康德称这些形式为直觉,它们是纯粹先天的知识方式,不依据经验和思想,这使理解现实成为可能。比如没有人见过完美的圆形,但不妨碍人理解正圆这个概念,因为空间的形式是先天的,是人的物理形态决定的。霍金斯的“恒定表征”,就是先天知识(人或者计算机物理结构所决定的)加上后天经验的产物。在我看来,计算机对时间和空间都没有先天的知识,如果计算机对什么有先天概念的话,那只能是频率。
不过,计算机并非不能产生智能,只是现在的科技水平不够。最初计算机的设计就是用于处理专项任务(计算个炮弹轨迹之类),而生命的演化是为了适应各种各样的自然环境,人和计算机"硬件"的不同,体现了自然演化和人工制造的区别。产生人类智慧的大脑,对于现在的技术水平来说,的确很难复制(就算能复制,消耗的电量是相当惊人的),并非说大脑具有什么独特的"精神"层面的东西,是计算机无法模拟的。我相信在科学家们提取出大脑的"算法"之后,人工智能的产生是必然的,十年、二十年内都有可能。想象一下吧,具有人类智慧的计算机,不仅计算速度快,还能接上定制的感官,不仅有视觉、听觉、触觉、味觉、嗅觉,它还能具有感受磁场的"磁觉"(就像一些鱼),感受整个森林火灾可能性的"安全感",甚至感受股市变化的"发财直觉"(有些人声称自己就有,比如我妈)……应用的可能性是无限多的。这也是小伙伴们改变命运,找到下一个蓝海的机会啊!至于我呢,现在就开始着手创办全球第一家"人工智能幼儿早教机构",并非人工智能来教育人类小孩哦,而是我来教育人工智能小孩……
回到书评上来:《智能时代》是一本很好的书!
下一页分享更优秀的<<<人工智能时代读后感
人工智能的未来读后感
趁着AlphaGO掀起的热潮,这周看完了《人工智能的未来》,一本谈论人工智能关于计算机技术原理、神经学、哲学的书籍。以下是我整理分享的人工智能的未来读后感的相关资料,欢迎阅读!
人工智能的未来读后感篇一
趁着AlphaGO掀起的热潮,这周看完了《人工智能的未来》,一本谈论人工智能关于计算机技术原理、神经学、哲学的书籍。
关于人工智能的定义,技术上和哲学上都颇具争议。
图灵测试提供了一种技术的、可衡量的手段;但在哲学上,人工智能永远回避不了关于意识或自由意志的问题。
关于自由意志,叔本华提出:“你可以做你想做的,但在生活中任何给定的时刻,你只能想做一件确定的事情,除此之外,绝对没有任何其它事情。”这种决定论的思想,和我们认为我们可以选择我所爱、做我所选大相径庭。
而作者认为,当机器说出它们的感受和感知经验,而我们相信它们所说的是真的时,它们就真正成了有意识的人。
作者通过思维模式识别理论、隐马尔可夫层级模型、遗传算法等人工智能技术,阐述了人工职能领域的进展,同时基于信息科技遵循指数增长的规律,提出了加速回报定律,乐观预计智能机器人在未来几十年内会出现。
从最初的人工耳蜗、人工眼球到人工大脑的扩展,非生物系统的引入(特别是人工大脑技术),是否会产生另外的我,而我们大部分思想(甚至全部)存在云端,是否就可以得到“永生”。
数学家斯坦·乌拉姆说过:“技术的加速发展和对人类生活模式的改变的进展在朝着人类历史上某种类似奇点的方向发展,在这个奇点之后,我们现在熟知的社会将不复存在”。
这一天,对人类来说是喜还是忧?人类是通过自己的智慧毁灭了自己还是得到了永生,谁能说清楚呢?
人工智能的未来读后感篇二你不得不承认,人生是一个不断的巧合。如果不是因为去年参加网络上的人工智能课程,我不会了解那么多新鲜的知识。在Big Data课程里,看到了介绍Hierarchical Temporal Memory,搜索在YouTube上看了Jeff Hawkins的视频,原来他就是那本被很多人谈及的《On Intelligence》一书的作者。有一天发现,发现那本绝版了很久的,也被很多人提及的书《人工智能的未来》居然到货了。这才发现原来是同一本书,真是如获至宝!
书很薄,字体很大,很快就翻完了。说是很快,那是因为读来很爽,作者关于智能的解释实在是深得我心。我曾经有过一些关于记忆的思考,记忆片段是如何关联的,在书里都解释得清清楚楚。有些概念在GEB里也提到过,比如我的大脑里一定有根神经是关于楼下那只猫的。其实对每一个你认识的人,每一个单词字母...关于这个世界的每一个物体,在你的大脑里都有个抽象的概念,有一根神经对应着,这想来很不可思议。原来,柏拉图的理想国是很有道理的。
作者认为,大脑新皮层只是在原有古脑的基础上加上了一个记忆系统,于是就带来了所谓的智能。而智能并不需要计算,而只是直接提取现成答案。所以说要想成功,需要10万小时的努力是有道理的,你需要有很多的答案,才能提取。有时候我们说,一个人很聪明,很灵活,其实是见多识广的缘故。因为见得多了,你的知识就很丰富,各种关联就很多,要找到答案就很容易。
记忆来自感知,所以跟一个人的经历有关。你之所以是你,是你的经历造就了你的记忆,而记忆是你行为的基础。我们制造的智能机器,其感知跟我们不同,其智能形式必然不同,或者说其思考和行为方式不同。就像有些人,她的行为你不可理喻,实在是因为经历不同,记忆不同,所以世界模型也不同。
作者说,智能并不需要外在的行为。比如,你只是阅读这上面的文字,虽然你不动声色,但是我知道你已经懂了。
人工智能的未来读后感篇三随着科技的发展,使人民的生活更加的方便,其中最重要的大概就是计算机行业的发展了,体现在这方面的则要数是机器人了!影片中,在未来,伴随着情感的需求,丧失儿女年轻夫妇则需要一个类似真人的机器孩子来陪伴他们,为了达到要求,科学家也逐渐掌握大脑的一般运作过程,然后能够编成像大脑一般运行的载有程序的硬盘,这样则能够满足他们的情感需求了,但某些时候虽然机器人能够达到人类的需求,但是却没有对机器人合法的保护措施,对于废弃了的机器人只能够当做废铁来处理,但是要知道人类是血肉之躯,与有相同智商的机器人来比的话,虽然没有经过进化,但明显他们更能适应我们生存的这个世界,后来的结果是可以预想的!本片引导人们进行诸如此类的思考之外,还植入了一个感人的故事,David—一个有思想、有感情的小机器人,他被一对人类父母—Henry和Monica所收养。突然有一天,Henry和Monica的亲生儿子Martin从昏迷中醒来。而Monica对于亲生儿子和机器人养子中做出了选择。David被人类父母抛弃后,一直认为是自己被抛弃的原因是自己不是一个有血肉的人,他渴望着自己能由一个机器人变成一个真真正正的人。抱着对这个愿望的执着,David展开了漫长的历程。
在描述David经历的故事中,我们可以看到几个不同的机器人角色。
每种机器人都代表自己的作用,但却无法被人类接纳到生命当中存在。与David一同被困机器屠宰场的破旧机器人,当中有仆人、工人、看门人的打扮,可以看出曾经作用于生活和生产。那些破旧机器人中都曾经出色过,但当有更新更先进的型号推出时,它们即被毫无疑问地丢弃,最终被人类彻底销毁。
Joe,机器情人,为人类的生理需求服务,懂得分析人类心理变化。Teddy,玩具熊机器人,只会作为宠物角色的逻辑思考。Joe和Teddy能够被人类作为一种寄托,Joe甚至能读懂人类的情绪,但始终不被人类所在乎,最终也只能说出“我曾经存在”。
David,新研发的高仿真机器人,能脱离数据计算而用感情思考,懂得爱别人,被人类收养。在Martin苏醒前,Henry和Monica一直尝试去接纳这个机器人儿子,直至Martin康复回来发生了一些事情。Monica却放弃了接纳机器人做儿子,因为机器人的外表甚至内在无论多么像人类,本质却是机器人。
在这部电影中我更多看到的是机器与人之间的关系,比起其它或许各式各样风格的讲述机器人的电影来说,《人工智能》所要讲述的人与机器人的关系更为生动也更为深刻。
首先,机器人能做什么的问题。关于机器人能做什么,影片在一开始就点明:人类目前的机器人最先进的也就是能下象棋,机器人即使再完美也不具备感情,因此要研究一种机器人,让他们懂“爱”。会上,一位专家就提出异议:要是机器人“爱”上了人类,而人类却不“爱”他怎么办呢?这是一个让人深思的问题。在后来的故事发展中,那种懂“爱”并且会“爱”人类的机器人真的被制造出来,可是他的“爱”却遭到阻拦,甚至被认为他想谋杀人类,结果他被送走。我们可以猜想,未来的机器人什么事情都可以做,他们没有怨言不需要休息,完全可以取代人类做很多事情,但是模拟人类的最终目标还是要机器人也有人类一样的情感,这一点很矛盾,如果机器人和人类一样拥有情感,那人类的地位自然将受到威胁。
其次,《人工智能》讨论了未来的世界是人统治机器人还是机器人统治人。有一点是肯定的,人与机器人是无法和睦相处的。电影里讲述了两个时代,一个时代是人类统治机器人的时代,这个时代人类始终站在强权一方,他们会不顾一切“杀死”被认为是没有用处的机器人,而且处理的手段极其残忍。在电影的最后,是2000年之后,地球上已经没有了人类,只有高智能的机器人,而大卫是最后一个与人类有过接触,保留有唯一人类记忆的老实机器人。可见,影片讲述的是随着人类的发展,人类自身将不复存在,剩下的只是高智能的机器人。
最后,是机器人与人类的沟通问题。看整个影片,我们几乎没有看到人类与机器人的沟通,除了大卫的“妈妈”(其实那也不是真正意义上的沟通,那只是一种母亲特有的爱)。我们可以发现,人类总是抱着一种想法在和机器人交流--他们是机器人人工智能读后感(3篇)人工智能读后感(3篇)。即使像大卫这样的机器人真正有了人类的情感,甚至“爱”上了人类的时候,人类也是在用异样的眼光看他们。因此,大卫注定是一个相信童话故事的机器人。他的生命轨迹中除了想要得到“妈妈”的爱,就再也没有什么了。
当人类不断的提高了自己的物质生活水平,利用不断发展的科技来满足自己,可是人类越来越认不清楚自己,天空变得越来越浑浊,绿地变得越来越少,人与人越来越冷漠,我们逐渐忘记了人类的感情,忘记了生命的本质,忘记了爱。
然而当人类已完全灭绝,当文明已成往事。只有一个小小的机器孩子,传承着爱的使命,延续着人类真正的灵魂。这不灭的人性精灵,深深烙印在数码密布的电路板上,凝聚在那双蔚蓝色的眼睛里,像天空一样寂寥,像海洋一般深邃。
这是一个讲爱的故事,真挚又残酷、纯粹而温暖、发人深醒。身处如今的时代,太多人只关心那些表面上的技术、理论、政治、利益、欲望,认为强权才是真理,欲望才是根本。却失去了本心,不屑甚至耻笑人类存在所最根本的——爱。这也是我们现在正逐渐丧失的东西。
人工智能观后感1000字
看过电影人工智能后有什么想法,有哪些观后感呢?下面是我为你整理的人工智能观后感1000字,供大家阅览!
《人工智能》1000字观后感
这部电影讲述的是一个关于机器人男孩的故事。影片从男孩的创造开始讲起,被收养后,从无爱到有爱,接着被抛弃的这样一种历程。很感人,同时又引他人深思。
犹记得故事主人公大卫被抛弃之后踏上寻爱之旅的那个片段,自爱的系统被触发后,他便毫无畏惧、毫无怨言的爱着自己的母亲。自马丁回来后,便注定了他的结局。当他知道要被人类母亲重新接受,就必须完成从机器人到有血有肉的真人的转变,为了能重获母爱,为了这个不可能的转变,他毅然决然的选择了长途跋涉,去寻找能够帮他实现愿望、却只在童话中存在的蓝精灵。感动在于它的不退缩、不放弃,感动在于他的执着追求。
两千年后,他的愿望得以实现,虽然只有一天,却是最幸福的一天,故事也就此落幕。眼观世间,很多人都做不到大卫的那种对爱的无怨与执着,更是有人将父母的爱熟视无睹,每天抱怨这抱怨那的,真是可怜天下父母心啊!请扪心自问一下,我们究竟有多少次感激过父母,恐怕是少之又少吧!父母给了我们最无私的爱,他们不求什么,只希望自己的孩子健康的成长,而我们,又为父母做过些什么,抱怨、顶嘴,想必是常发生的事吧。真是身在福中不知福啊!请再细想一下,每当我们遇到什么困难或是一些伤心事时,是谁在我们身边耐心的开导,又是谁一直在我们身边给我们默默的支持,都是自己的父母,不是吗?为何我们就不能像大卫那样毫无怨言的爱着自己的父母,为何我们就不能帮父母减轻一些负担?
大卫对人类母亲的爱,令我感动;人类的情感,却令我感慨。科技的发展让人类创造了机器人,可机器人的发展又让人类感到了威胁,人类竟决定全部销毁,不曾有丝毫犹豫。需要的时候创造了它,不需要的时候毫不犹豫的丢弃掉。不仅仅是影片中人类对机器人的态度是如此,生活中人类对其他物什也是如此。在我们身边很容易能看到这样一些人,谁对他们有利,他们就会去尽力靠近,谁对他们无利,他们便毫不搭理。当然,并不是所有人都是如此,但这种现象并不鲜见。对同类都如此,更何况对其他。
猜你喜欢:
1. 《人工智能》读后感(2)
2. 人工智能观后感3篇
3. 人工智能的读后感
4. 电影人工智能影评3篇
5. 人工智能的未来读后感
6. 人工智能时代读后感
7. 电影人工智能观后感
8. 电影万箭穿心观后感3篇
2021-09-18《AI30人工智能落地的商业逻辑》读后感
本书中我得到的收获:
1、了解了一些基本的概念和基本的理念,如人工智能的发展历程:
再比如:AI的三个阶段AI分为三类:狭窄人工智能(Artificial Narrow Intelligence)、普遍人工智能(Artificial
General Intelligence)和超级人工智能(ArtificialSuper
Intelligence)。
2、数据和AI之间的关系:数据是AI的基础
当今社会已经不仅仅是AI的发展需要数据作为基础,越来越多的行业、领域都对数据给予了足够高度的重视,当然“数据”也受得起大家给予的重视——它确实能创造价值。但哪些数据,通过怎样的形式产生怎样的价值,是人们要面对的课题。
数据战略应该关注数据的整体生命周期,思考企业的数据从哪里来,有哪些作用,未来到哪里去。企业要更加关注自有数据的价值创新,建设自有数据的网络效应,将其货币化。并且,企业还要一手抓进攻性数据(商业分析),另一手抓防御性数据(安全性),双管齐下,避免数据泄漏。
成功的数据战略应该包含数据资产、数据治理、数据价值创造、人才储备等在内的总体计划,为未来的业务增长奠定基础,提供持续不断的数据动力。
3、涉及AI的讨论,必然会涉及的伦理讨论
欧盟提出了四条核心的伦理原则:第一,人类自治原则,保障人类在使用人工智能时充分、有效的自决权利,确保人类对人工智能系统工作程序的监管;第二,避免伤害原则,确保人工智能系统及使用环境的安全可靠,确保人工智能技术的稳健性,防止恶意利用;第三,公平原则,要求合理分配收益与成本,确保个人与团体不受偏见、歧视和侮辱;第四,可解释性原则,意味着程序透明,公开相关系统的功能与目的。
基于这四大原则,细化并扩展出实现可信人工智能的七条具体要求。未来基于这些原则和要求,各个场景会有配套的法律跟进,进而将人工智能发展纳入可控的轨道。欧盟的经验非常值得借鉴,共同的伦理准则是未来人工智能产业全球协作的基础,甚至关系到政治军事的合作和信任。
就人工智能活动的具体执行方面,艾伦·图灵研究所针对人工智能研发提出“FAST”原则:即公平(fairness)、责任(accountability)、持续(sustainability)和透明(transparency)。
公平原则,指的是无性别、种族、群体歧视,在数据收集、数据分析、结果呈现上必须考虑无歧视,实现公平。公平原则既要从国家、民族等宏观处考虑,也应在产品与行业的微观处有所体现。责任原则,指的是我们正在进入分布式智能时代,要了解哪些任务和决策可以委托给人工智能,以及如何区分责任。1979年,德国学者汉斯·伦克(Hans
Lenk)第一次提出“责任伦理学”的概念,深化了科技伦理问题的探讨。除了自动驾驶领域的责任归属,诸如伴侣机器人、餐厅机器人、医疗机器人等各类机器人若发生意外,也应该有相应的责任归属。持续原则,指的是人工智能的产品要稳健、安全、可控制,系统在设计时要考虑到产品对人和社会的影响,使用过程可控。透明原则,指的是过程、原因、结果可解释、可追踪,既有利于查询追溯,也能方便迭代与修订。
最后,我喜欢作者直截了当地谈到“后续我们应该如何”,我更喜欢“认知悲观、行动积极”的风格。不论是AI还是对其他事情,我一直觉得即便认知是悲观的,也应该采取积极的行动去直面所有的可能!普通人更多的还是要考虑非重复性的工作、人工智能做不了的工作。当然对于从业AI的人来讲,除了了解基本的规律、基本的逻辑,行业发展趋势、商机等等以外,一直不能忘记的是“人工智能受人启发,由人创造,人工智能的价值观就是人类的价值观,需要采用‘以人为本’的原则来开发人工智能”。
雪山上的机器人读后感
王勇英的惊险科幻系列,跟随少年侦探团一起去冒险.暑假里,古美与同学去雪山游览,意外发现了一个令人震惊的大阴谋……
故事精彩刺激,但也引发了我对机器人威胁的思考...
人类所担心的智能机器人是能够像人一样思考、行动。这里行动应广义地理解为采取行动,或制定行动的决策,而不是肢体动作,而且它们具有知觉和自我意识。
人工智能对人类的毁灭能力是什么?牛津大学的研究人员给出了解释,人工智能不是像核武器一样消灭人类,而是会逐步取代人类,真正可怕的是智力。它们将比人类更聪明、更擅长社交、更有工作能力。
比尔·盖茨说:“如果我们能够很好地驾驭机器人,机器能够为人类造福,但如果若干年后机器发展得超过人类的智能,那么它们就将成为人类的心头大患。”
不久前,著名科学家史蒂芬·霍金发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。霍金曾与特斯拉CEO伊隆·马斯克共同发表公开信,他们认为,人工智能的发展应该受到控制。信中称,如果智能机器无法保障安全,人类可能陷入黑暗的未来。一方面人工智能让人类越来越缺乏思考,另一方面其自身则有可能越来越聪明,从而威胁到人类的生存。
马斯克也提出警告,最少只需5年,智能机器可能就会带来极端危险。他说:“应该保持高度警惕。如果让我猜测人类生存的最大威胁,那可能就是人工智能。”
牛津大学哲学教授尼克·博斯特伦与詹姆斯·巴拉特认为,“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标”。
不论如何,科学家认为未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克·阿西莫夫在他的机器人相关小说中为机器人设定了行为准则(也就是机器人三定律)——
法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;
法则二,机器人必须服从人类的命令,除非违背第一法则;
法则三,在不违背第一、二法则的前提下,机器人必须保护自己。
如果认为本文对您有所帮助请赞助本站