人工智能的使用者,对ai正在做什么,并没办法有很切实的把握。
这对系统开者来说并不成问题,但是对使用者,则潜藏着这样的风险
对ai的实际行为,不管开者怎样声称、怎样保证,都没办法验证这些声称、保证究竟是真的靠谱,还是完全的欺骗。
归而总之,还是此前想到的那一个难题
除非开者主动放弃,否则,对复杂度限的系统,没有任何百分之百可靠的手段,可以确保除开者之外的任何人将其完全掌控。
思考着asa的行为,“权限不可转让”的猜想,再度浮现于方然的脑海。
但他想了又想,还是无法给出证明。
幸好现在还无关紧要,至少对asa,身为开者的自己并不担心它会失控,方然就暂且将猜想放到一边,他仔细观察“自动化搜索与分析”系统的日志,结合每天的分析报告,逐渐洞悉了这系统的运行规律。
看起来,正仿佛一个物理意义上的大脑,asa的运行思路,恰似人脑。
这种相似性,与“自我意识”的讨论无关,而是说眼前的人工智能在处理问题时,采取的广泛尝试、不断反馈的策略,与人脑在面对问题时的工作方式很相似。
想象一个人,在尝试解决试卷上的数学题时,究竟是怎样思考,想出办法呢;
大脑的思考过程,人皆有之,却好似很难用语言来清晰描述,教师指导学生,也往往是泛泛的“认真想一想”、“换个思路想”,其实这时候大脑究竟在做什么呢,无非是利用以往积累的神经突触网络,动神经刺激,将所有可能涉及到题目、可能给出解决方案的神经连接路径都尝试一遍而已。
这过程中,绝大多数路径都指向“否决”,极少数路径一时没有被判无效,或许,还会连通到逻辑关联的其他路径,运气好的话,在经历难以想象的繁复生物电过程后,大脑会半回顾、半新创的给出一条可行路径,问题才得以解决。
这种过程,在人工智能领域,似乎就是所谓的“神经网络”。