书籍详情
《人工智能:一种现代的方法世界著名计算机教材精选》[47M]百度网盘|亲测有效|pdf下载
  • 人工智能:一种现代的方法世界著名计算机教材精选

  • 出版社:北京京源畅想图书专营店
  • 热度:5164
  • 上架时间:2024-06-30 09:08:33
  • 价格:0.0
书籍下载
书籍预览
免责声明

本站支持尊重有效期内的版权/著作权,所有的资源均来自于互联网网友分享或网盘资源,一旦发现资源涉及侵权,将立即删除。希望所有用户一同监督并反馈问题,如有侵权请联系站长或发送邮件到ebook666@outlook.com,本站将立马改正

内容介绍


内容简介

  《世界著名计算机教材精选·人工智能:一种现代的方法(第3版)》是经典的人工智能教材,已被全世界100多个国家的1200多所大学用作教材。  《世界著名计算机教材精选·人工智能:一种现代的方法(第3版)》的新版全面而系统地介绍了人工智能的理论和实践,阐述了人工智能领域的核心内容,并深入介绍了各个主要的研究方向。全书分为七大部分:第1部分“人工智能”,第II部分“问题求解”,第III部分“知识、推理与规划”,第IV部分“不确定知识与推理”,第V部分“学习”,第VI部分“通信、感知与行动”,第VII部分“结论”。《世界著名计算机教材精选·人工智能:一种现代的方法(第3版)》既详细介绍了人工智能的基本概念、思想和算法,还描述了其各个研究方向前沿的进展,同时收集整理了详实的历史文献与事件。另外,本书的配套网址为教师和学生提供了大量教学和学习资料。  本书适合于不同层次和领域的研究人员及学生,是高等院校本科生和研究生人工智能课的教材,也是相关领域的科研与工程技术人员的重要参考书。


作者简介

  Stuart Russell,1962年生于英格兰的Portsmouth。他于1982年以一等成绩在牛津大学获得物理学学士学位,并于1986年在斯坦福大学获得计算机科学的博士学位。之后他进入加州大学伯克利分校,任计算机科学教授,智能系统中心主任,拥有Smith-Zadeh工程学讲座教授头衔。1990年他获得国家科学基金的“总统青年研究奖”(Presidential Young Investigator Award),1995年他是“计算机与思维奖”(Computer and Thought Award)的获得者之一。1996年他是加州大学的Miller教授(Miller Professor),并于2000年被任命为首席讲座教授(Chancellor's Professorship)。1998年他在斯坦福大学做过Forsythe纪念演讲(Forsythe Memorial Lecture)。他是美国人工智能学会的会士和前执行委员会委员。他已经发表100多篇论文,主题广泛涉及人工智能领域。他的其他著作包括《在类比与归纳中使用知识》(The Use of Knowledge in Analogy abd Induction).以及(与Eric Wefald合著的)《做正确的事情:有限理性的研究》(Do the Right Thing: Studies in Limited Rationality)。    Peter Norvig,现为Google研究院主管(Director of Research),2002-2005年为负责核心Web搜索算法的主管。他是美国人工智能学会的会士和ACM的会士。他曾经是NASAAmes研究中心计算科学部的主任,负责NASA在人工智能和机器人学领域的研究与开发,他作为Junglee的首席科学家帮助开发了一种zui早的互联网信息抽取服务。他在布朗( Brown)大学得应用数学学士学位,在加州大学伯克利分校获得计算机科学的博士学位。他获得了伯克利“卓越校友和工程创新奖”,从NASA获得了“非凡成就勋章”。他曾任南加州大学的教授,并是伯克利的研究员。他的其他著作包括《人工智能程序设计范型:通用Lisp语言的案例研究》(Paradigms of AI Programming: Case Studies in Common Lisp)和《Verbmobil:一个面对面对话的翻译系统》(Verbmobil:A Translation System for Face-to-FaceDialog),以及《UNIX的智能帮助系统》(lntelligent Help Systemsfor UNIX)。


精彩书摘

  这个例子说明理性不等于完美。理性是使期望的性能大化,而完美是使实际的性能大化。完美对Agent而言是不太合理的要求。关键是如果我们期望Agent最终能采取事实上最好的行动,设计满足这样要求的Agent是不可能的——除非我们能改进水晶球或者时间机器的性能。


  因此,对理性的定义并不要求全知,因为理性的选择只依赖于到当时为止的感知序列。我们还要确保没有因漫不经心而让Agent进行愚蠢的活动。例如,如果Agent穿行繁忙的马路前没有观察道路两边的情况,那么它的感知序列就不可能告诉它有大卡车在高速接近。我们对理性的定义会说现在可以穿过马路吗?绝对不会!首先,根据信息不全的感知序列穿行马路是不理性的:不观察的情况下穿行发生事故的风险太大了。其次,理性Agent应该在走上街道之前选择“观察”行动,因为观察有助于大化期望性能。为了修改未来的感知信息而采取行动——有时称为信息收集——是理性的重要部分,将在第16章中深入讨论。真空吸尘器清洁Agent在初始未知的环境中必须探查,这为我们提供了信息收集的第二个实例。


  我们的定义不仅要求理性Agent收集信息,而且要求Agent从它所感知的信息中尽可能多的学习。Agent最初的设定可能反映的是环境的先验知识,但随着Agent经验的丰富这些知识会被改变或者增加。在一些极端的情况中环境被完全当成先验知识。在这样的情况下,Agent不再需要感知和学习;它只要正确地行动就可以。当然,这样的Agent是脆弱的。考虑一下蜣螂。蜣螂做窝并产卵后,会从附近的粪堆取回一个粪球堵住窝的入口。如果粪球在路途中脱离了它的掌握,蜣螂还会继续赶路,并做动作用不存在的粪球塞住入口,而不会注意到粪球已经不见了。蜣螂进化时在它的行为里内建了假设,当该假设被破坏时,就会产生不成功的行为。黑足泥蜂要聪明一些。雌蜂先挖一个洞,出去叮一只毛虫并拖回洞,再次进洞查看,再把毛虫拖到洞里,然后产卵。毛虫在黑足泥蜂孵卵期间作为食物来源。到目前为止一切似乎顺利,但是假如有昆虫学家在雌蜂检查地洞的时候把毛虫挪开几英寸,雌蜂就会回到计划中“拖毛虫到地洞”的步骤,继续进行不做任何修改的计划,甚至在发生过很多次毛虫被移动的干扰后仍然如此。雌蜂无法知道它天生的计划是失败的,因而也不会改变计划。


  Agent依赖于设计人员的先验知识而不是它自身的感知信息,这种情况我们会说该Agent缺乏自主性。理性Agent应该是自主的——它应该学习,以弥补不完整的或者不正确的先验知识。例如,学会预见灰尘出现的地点和时间的吸尘器清洁Agent,显然就能比不会预见的Agent要做得好。实践中,很少要求Agent从一开始就完全自主:当Agent没有或者只有很少的经验时,它的行为往往是随机的,除非设计人员提供一些帮助。因此就像进化为动物提供了足够的内建的反射,以使它们能生存足够长的时间进行学习一样,给人工智能的Agent提供一些初始知识以及学习能力是合理的。当得到关于环境的充足经验后,理性Agent的行为才能独立于它的先验知识有效地行动。从而,与学习相结合使得我们可以设计在很多不同环境下都能成功的理性Agent。