`
qinysong
  • 浏览: 190877 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

人工智能到底是什么——理性和感性如何解决

阅读更多
对于人工智能最近对这个问题比较困惑,当然属于胡思乱想而已
理性是指导思想和活动的控制器,比如学习的时候要靠理性指导学什么东西、什么是重点、碰到问题如何解决和挂起,学完之后还要靠理性把学到的知识组织到我们已有的思想体系里,如果和以前知识体系有冲突、不一致的话如何整理以构筑出一个更完整更理性的思想体系。所以如果这么说的话,记忆、预测就是理性控制下的工作模块、工作单元,而理性就是这些工作单元的操作系统。

再一个就是感性,好像是有一个哲学家说过,一个完全理性的驴子站在两堆完全相同的稻草中间,结果却因为无法取舍该先吃哪一堆而饿死。所以纯粹的理性将导致无限的循环,即无法产生一个适量的结果。比如我们解决一个问题,特别是当这个问题没有标准解时,我们想到一个解决方案,然后会再想还有没有更好的方法,但是我们不会因为好的方法永无止境而永远想下去,这个判断也是一个感性的协调。

分享到:
评论
13 楼 抛出异常的爱 2007-11-26  
qinysong 写道
gigix 写道
这个,相当程度上取决于你给“直觉”一个怎样的定义。比如说一头驴子站在两堆完全相同的稻草中间,它需要做的就是扔一个骰子决定吃左边或者吃右边,这显然跟直觉一点关系都没有。

扔一个骰子是可以解决不能选择的困境,在目前的情况这个方法应该也是最简单实用的
还有一个问题,就是主动性方面,比如图灵测试的验证对话实例中,好像只是问-答的模式,就是人去问,机器去答,是否应该增加互动的方式会更好一些呢,比如中间机器也会发问,还是这两种模式其实没有实质性的区别呢,希望gigix赐教

所有的问题都会对答案的加权进行修正时。。。就近似人脑了。
12 楼 qinysong 2007-11-26  
gigix 写道
这个,相当程度上取决于你给“直觉”一个怎样的定义。比如说一头驴子站在两堆完全相同的稻草中间,它需要做的就是扔一个骰子决定吃左边或者吃右边,这显然跟直觉一点关系都没有。

扔一个骰子是可以解决不能选择的困境,在目前的情况这个方法应该也是最简单实用的
还有一个问题,就是主动性方面,比如图灵测试的验证对话实例中,好像只是问-答的模式,就是人去问,机器去答,是否应该增加互动的方式会更好一些呢,比如中间机器也会发问,还是这两种模式其实没有实质性的区别呢,希望gigix赐教
11 楼 抛出异常的爱 2007-11-26  
qinysong 写道
gigix 写道
引用
好像是有一个哲学家说过,一个完全理性的驴子站在两堆完全相同的稻草中间,结果却因为无法取舍该先吃哪一堆而饿死。所以纯粹的理性将导致无限的循环,即无法产生一个适量的结果。

这个本身就是扯淡
即便落实到你的主题上,任何试图跟AI扯上任何关系的东西,一个伪随机数产生器都是必不可少的,所以这个问题对于一个AI来说只是一个涉及伪随机数的加权计算而已,跟什么感性根本扯不上任何关系。

多谢gigix指点,伪随机数的方式我也考虑过,但是仍然觉得无论怎么加权都属于推断的范畴,好像很难产生“直觉”的效果

直觉是指对伪随机数的各个答案的加权。。。玩一下龙与地下城的20面色子。
人工智能就是对权值的修正。。。
10 楼 yuxie 2007-11-26  
gigix 写道
这个,相当程度上取决于你给“直觉”一个怎样的定义。


插播八卦: gigix同学从印度学会这个经典诡辩术后,近期在家爱多次用英文和中文实习,并取得了一定的效果。有兴趣者可搜索近期帖子。


PS,关于人工智能,如果想稍加深入了解又不想管prolog等等乱七八糟的东东,推荐罗杰彭罗斯的《皇帝新脑》一书
9 楼 qinysong 2007-11-26  
gigix 写道
这些还是废话,因为你去弄明白所谓智能的本质对于你实现AI或者使用AI没有任何帮助

这句话我还需要再理解理解。

gigix 写道

如果你的目标是要有一些实用意义上的进展,那么就从图灵测试开始,想想图灵测试的问题在哪里,如何去改进。一上来就自己这么想当然的海阔天空,最好的结果无非是重复别人早已经想过的东西而已。

图灵测试本身只是一个验证,并没有说明如何去实现,它也不限制如何去实现,在实现的层次考虑所实现问题的特征似乎应该是必要的
8 楼 gigix 2007-11-25  
qinysong 写道
gigix 写道
引用
好像是有一个哲学家说过,一个完全理性的驴子站在两堆完全相同的稻草中间,结果却因为无法取舍该先吃哪一堆而饿死。所以纯粹的理性将导致无限的循环,即无法产生一个适量的结果。

这个本身就是扯淡
即便落实到你的主题上,任何试图跟AI扯上任何关系的东西,一个伪随机数产生器都是必不可少的,所以这个问题对于一个AI来说只是一个涉及伪随机数的加权计算而已,跟什么感性根本扯不上任何关系。

多谢gigix指点,伪随机数的方式我也考虑过,但是仍然觉得无论怎么加权都属于推断的范畴,好像很难产生“直觉”的效果

这个,相当程度上取决于你给“直觉”一个怎样的定义。比如说一头驴子站在两堆完全相同的稻草中间,它需要做的就是扔一个骰子决定吃左边或者吃右边,这显然跟直觉一点关系都没有。
而在现实生活中很多人倾向于给“直觉”一个过于宽泛的定义。很多事情本来是可以并且应该通过计算和权衡得到结果的,很多人就喜欢把自己的懒于思考美其名曰“直觉”。站在这种过于宽泛的直觉定义基础之上去谈论AI需要如何实现直觉,这个问题就是没法解的。你不如首先举出一些例子,这些事例是人类使用直觉来解决问题的,然后尝试找出其中的规律。有可能你会发现需要直觉的情景并不像你想象的那么多。
7 楼 gigix 2007-11-25  
qinysong 写道
waldenlake 写道
要想真正的模拟智能,也许唯一的办法就是创造一个和现有体系完全不同的“计算机”,不过看来最近XX年是不可能的了。

我也是这样认为,现在的计算机无论如何发挥都脱离不了数字(即0、1)的本质,而人类包括所有地球生物的智能基础应该要远远比数字的范畴更大。所以有时候我也幻想,将来的智能机(应该就不再叫计算机了)应该是“主板”上面放一块肉,用来代替cpu内存等等:),但是这样的幻想可能又被我们的认知所限制了。

这些还是废话,因为你去弄明白所谓智能的本质对于你实现AI或者使用AI没有任何帮助,当然可能你讨论这个问题本身就是想说点废话,那就另当别论。
如果你的目标是要有一些实用意义上的进展,那么就从图灵测试开始,想想图灵测试的问题在哪里,如何去改进。一上来就自己这么想当然的海阔天空,最好的结果无非是重复别人早已经想过的东西而已。
6 楼 qinysong 2007-11-25  
waldenlake 写道
要想真正的模拟智能,也许唯一的办法就是创造一个和现有体系完全不同的“计算机”,不过看来最近XX年是不可能的了。

我也是这样认为,现在的计算机无论如何发挥都脱离不了数字(即0、1)的本质,而人类包括所有地球生物的智能基础应该要远远比数字的范畴更大。所以有时候我也幻想,将来的智能机(应该就不再叫计算机了)应该是“主板”上面放一块肉,用来代替cpu内存等等:),但是这样的幻想可能又被我们的认知所限制了。

5 楼 waldenlake 2007-11-25  
要想真正的模拟智能,也许唯一的办法就是创造一个和现有体系完全不同的“计算机”,不过看来最近XX年是不可能的了。
4 楼 bcccs 2007-11-25  
mingo 写道
模拟直觉进行加权。。。。

再者,计算机就是计算机,跟人永远不同,必定会某种程度让你感觉到很难产生直觉的效果,

没有根据的话不好太武断,never say never!
3 楼 mingo 2007-11-25  
模拟直觉进行加权。。。。

再者,计算机就是计算机,跟人永远不同,必定会某种程度让你感觉到很难产生直觉的效果,
2 楼 qinysong 2007-11-24  
gigix 写道
引用
好像是有一个哲学家说过,一个完全理性的驴子站在两堆完全相同的稻草中间,结果却因为无法取舍该先吃哪一堆而饿死。所以纯粹的理性将导致无限的循环,即无法产生一个适量的结果。

这个本身就是扯淡
即便落实到你的主题上,任何试图跟AI扯上任何关系的东西,一个伪随机数产生器都是必不可少的,所以这个问题对于一个AI来说只是一个涉及伪随机数的加权计算而已,跟什么感性根本扯不上任何关系。

多谢gigix指点,伪随机数的方式我也考虑过,但是仍然觉得无论怎么加权都属于推断的范畴,好像很难产生“直觉”的效果
1 楼 gigix 2007-11-24  
引用
好像是有一个哲学家说过,一个完全理性的驴子站在两堆完全相同的稻草中间,结果却因为无法取舍该先吃哪一堆而饿死。所以纯粹的理性将导致无限的循环,即无法产生一个适量的结果。

这个本身就是扯淡
即便落实到你的主题上,任何试图跟AI扯上任何关系的东西,一个伪随机数产生器都是必不可少的,所以这个问题对于一个AI来说只是一个涉及伪随机数的加权计算而已,跟什么感性根本扯不上任何关系。

相关推荐

Global site tag (gtag.js) - Google Analytics