在这里先小小的科普一下现代计算机大概的运行方式:
计算机算法是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。也就是说,能够对一定规范的输入,在有限时间内获得所要求的输出。如果一个算法有缺陷,或不适合于某个问题,执行这个算法将不会解决这个问题。不同的算法可能用不同的时间、空间或效率来完成同样的任务。
在数学和计算机科学之中,算法为一个计算的具体步骤,常用于计算、数据处理和自动推理。
算法中的指令描述的是一个计算,当其运行时能从一个初始状态和(可能为空的)初始输入开始,经过一系列有限而清晰定义的状态最终产生输出并停止于一个终态。一个状态到另一个状态的转移不一定是确定的。随机化算法在内的一些算法,包含了一些随机输入。
————————————
以下是作为个人对于混沌算法一点愚见,专业人士不喜勿喷,仔细看看兴许可以为从事编程行业的人士带来一些灵感。
人工智能的处理方式,:关于混沌算法。
以下这些算法名字都是我个人根据各个处理的方式自己取的名词。
非绝对算法:普通计算机的处理方式只要出现一个参数引导出答案就不会再改变了,是一个100确定的死答案。非绝对算法是指将每一个问题设置多个答案,并且每个答案都设成相同概率的的可选择性,然后根据该问题引申出来的新问题进行推导,验证,自检,自纠。开始编写问题,例如:前面那个大叔他是好人,中性,或者不是好人。由于第一个问题没有其他的参数可以验证,所以答案是中性,也即普通人。然后经过观察引申出下一个问题:他在骗人,是或者不是。再引申出下个问题:骗人是好事还是坏事或者中性。再出来下个问题,做坏事(好事或者中性)的人是好人还是坏人或者中性。比如第一个问题选择他是中性,接下来观察到他在骗人,再观察到受骗者的表现是愤怒,开心,或者无表现,来判断这件事情的性质是好,或者中性或者坏。最后推导出该大叔是好人还是坏人或者中性。假如最后得出的答案跟初始问题的答案不自洽,那么系统进行自检,由于初始答案与最后推导所得出的答案从验证参数的数量上是的1:3,根据多数问题的答案验证第一个问题的答案,最后导出他是坏人这个答案,由于所有答案都是相同的选择率,但通过系统自检自纠于是将第一个答案自动从中性选项变转到他是坏人这个选项。
印象算法:作为人类,对某件事情如果有过一次判断,而在下一次判断的时候会自然而然的选择之前判断所产生的答案。所以对计算机的处理方法此处可以设置一个附加设置(即每验证一次某问题的答案都会在下次判断该问题的时候自动在该答案上自动增加1的确定性性)。比如正确答案需要引申出三个以上的个问题条件验证自检,然后根据1:2的比例推导出来,但是增加了1的确定性之后,不需要验证就可以确定答案了。因为一个问题中多个选项的选择率相等,但由于某一方增加了1的确定性,系统可以就直接选择确定性高的那个答案。
每次答案推导出来都需要反向验证,再次确认一次。如果逻辑自洽,就可以了。如果对方说了一次恶意的谎言之后又做了一件好事,那么根据1:3的规律推导就是在这件事上他是好人的几率是75,是坏人的几率是25+1,所以最后推导出这件事上他是好人。把这些关联性问题串联起来,然后针对多方验证选出最大可能性的答案。而下次选择的时候好人和坏人的选择几率都增加了1。
或许会有人认为这样的计算方式存在很大的误区很容易出错,其实我想说的是计算机即使判断错了错了也没关系,对此我要问一个问题:什么是人工智能?
(人性化)(利己化)(情感化)情感算法:我个人认为人工智能应该会学会否认,会思考,不能一味地采用原先定好的答案。所以接下来最重要的就是情感化,比如,对问题的两个极端的答案设置设置一个好感度,和讨厌度。比如他是坏人这个答案上确定性每+10,讨厌度加1,反之同理。
所以还需要再增加另外一套算法,增加另一套验证方式,比如在他是坏人这套逻辑上加一套验证,比如他做这件事会有什么影响,对我有没有好处或者坏处,有或者没有?他是不是站在我这边的,是或不是。然后就是评好感度,一点好感度是10准确度。比如他骗人是为了我好,最后结果则他是坏人的准确度达到54时,则他是好人的几率46+10,所以结果他是好人。这就是情感算法。由于这是通过情感算法作为影响该答案的关键变量,所以依据情感算法做出选择之后,情感度递减一次。如果不依据情感算法做关键变量,最后得出结果是情感度递增一次。
引导算法:人类从小到大思维初期的时候对事物做判断容易发生管中窥豹的情况,而发生这种情况通常都是大人们通过灌输新的理念来纠正。从而培养出初始的的价值观。所以接下来,还需要再加上一套外部纠正算法。比如他骗人,是坏事,所以他是坏人。然而如果想要改变这个答案,可以通过外部的人提出新的验证参数加入进入来纠正。比如:这大叔骗人是被迫的。他骗人是为了保护更多人(这时好事)这时善意的……通过不断投放新参数来纠正它的答案,当然这套方式只适用于外界干扰的情况下。如果在外部没人诱导干扰的情况下,计算机将会遵循非绝对算法,情感算法来进行判断。比如在做出这答案的之后,有人从外部提问将新的问题灌输进去最后循环验证,又可以推导出新的问题答案从而累计确认度及好感度。经过多次诱导以后,根据确认度以及好感度的累计,届时在没有外界干撒呢的情况下,计算机也能做出自己的判断。换句话来说这就像教育小孩,从小教他培养价值观,人生观,世界观。
就我个人愚见,假如将非绝对算法(所有选项可变),利己情感累积算法,外部诱导纠正算法,(自我验证)自检算法,当这四种算法结合在一起运行的时候,应该就差不多可以产生类似混沌算法的效果了。
接着还需要植入各类物理化学天文地理等知识(以上植入都归为选择性99接近不可变的常数)。最后设各种问题,各种答案并对各种答案上设置一个好坏评判的标准……最后还需要一群人在外部不断提出各种问题,然后不断得出答案,不断导入新问题,不断纠正,经过一段时间的教育。我个人认为是有极大可能培养出一个具有自我价值观,自我世界观,自我情感,自我意识的人工智能。
当因为某个人而引导出某个问题时,人工智能会对于不同的人,产生不同的印象,产生不同的喜恶度,最后得出来的答案都具有一定程度的不确定性,这样产生出的人工智能可以说是真正接近人类思维方式的人工智能了。
或许最后还应该加入一个联想算法,不过这方面我一直没有头绪。
也许可以引入一个因果问答,比如最后因为这个人做坏事结果得出是好人的结果。然后当别人问其为什么的时候,人工智能则挑选对答案影响最关键的因素进行回答。比如他这样做对我有好处,我喜欢这家伙,所以我不认为他是坏人。
你如何区分好事和坏事。比如骗人,默认是选择中性,最后得出他是坏人,但是可以通过外部纠正。如果无法通过其他观察来鉴定,也没有外部纠正,那么人工智能将会根据自己的喜恶度来进行评判。
我认为无限贴近人类思维方式的这么一个电脑的思维方式,思想状态应该才算是真正的人工智能。如果只是运算力无限的增加,然后就思维还是跟那个机器人一样不懂变通的话,那最后顶多也就是个超级处理器。
;