现在的位置: 首页 > 综合 > 正文

北京理工大学人工智能第四次作业

2014年11月20日 ⁄ 综合 ⁄ 共 1317字 ⁄ 字号 评论关闭

第五章

 

第一题:给出如下布尔函数的决策树: (A∧B)∨(C∧D)

 

第二题:考虑根据不同天气情况决定是否野餐的问题。现有一个集合,标示了根据某些条件是否进行野餐。旁边是该问题的一个决策树:

 

(a)   圈出表中原本True但识别为False的实例

(b)   圈出表中原本为False但识别为True的实例

(c)    如果将一个叶子节点转化为一个属性集,则转化的应该是哪个叶子节点?

(i)Raining=T    (ii)Sunny=T    (iii)Sunny=F


(d)新加属性里面哪一个可以提供更多的信息?( (log_2 1/3≈1.6))

说明:此题有错,集合与实际情况不符,不知道是以决策树为准还是以集合为准,有歧义。

 

答:(该题纯数学问题,考试绝对不会考,老师曾考虑换掉这个题,最后我没换,不过不影响人工智能课的学习,作业中也没有发现做对的,我自己推的话时间有点来不及,我们直接无视它)

 

第四题:给定7个三维数据,要求聚类后每一簇至少包括一个数据且不限定簇的个数,则可能的聚类方案有多少?


 

第五题:监督学习的计算实质是什么?其中有哪两个关键子问题?请针对每个子问题,尽可能多地叙述你所知道的解决方案。

答:监督学习的计算实质是学习拟合实际问题的目标函数,其中两个关键问题是优化目标和优化方法,优化目标可以是最小二乘、最大信息熵、最小描述长度等,优化方法主要包括最速下降、牛顿迭代、进化计算、群智能等。

 

第六章

第一题:简述行为智能与符号主义和连接主义的主要区别。

答:符号主义和连接主义认为为了对外界刺激做出反应,智能系统需要能够表示外界环境和求解目标,然后在此基础上进行推理,确定所要采取的行动。通常表示为“感知—表示—推理—行为”模式。行为智能表示为“感知—行为”的模式,智能体直接对感知到的外界刺激做出合适的反应,并不断在“感知—行为”过程中对外界环境逐渐适应。


第二题:试用强化学习中的Q-学习方法解决如下二阶梵塔问题:

    

   并说明其解决思想与问题求解中的图搜索方法的根本区别。

  (注:不必叙述学习过程,直接给出Q-值,并概述其求解原理即可)

答:用有向图的形式(各个节点为各种状态,有向边表示状态的转换)将两层汉诺塔问题表示出来。智能系统开始时除了目标状态的奖励值为1000,其余状态都为0。

假设从某个状态开始搜索,以80%的概率进入自己认为正确的状态,以20%的概率进入另一个状态(如果有的话),根据下一个状态的Q值更新自己的Q值,这样一直进行下去使得遍历整个状态,并使智能系统在遍历过程中不断学习,不断优化自己的Q值,最后使各个状态的Q趋于稳定。

经过Q-学习方法学习后的行为智能系统对环境有了适应性,这是与图搜索方法的根本区别。在图搜索方法中,每搜索一步都需要对根据搜索策略进行评估并决定下一步,而在Q学习方法中,一旦智能体对环境进行了适应性学习,每个状态都会有自己的Q值,不论从哪个状态出发,都能很快地找到目的状态。

Q值为:

Q-学习算法和图搜索算法的根本区别在于:图搜索算法里无论是否使用启发式函数,其搜索过程都是有一定盲目性的(启发式信息是经验性的,并不代表一定引导向最优解),而Q-学习算法的Q-函数值则可以准确评估动作。

抱歉!评论已关闭.