ChatGPT严重受限 源自人类深层恐惧 AI能超越真人吗

随著ChatGPT的发表,让社会大众对于人工智慧发展的进度感到不可思议,因为它藉由大量数位资料的训练(其中大部分为网络上的资讯),得到了逼近真人的对话能力,其中根据使用者提示自动生成文章的能力,让人类作家们倍感威胁。

在实际使用、并研究它的训练方式之后,针对政治这个特定的写作领域,笔者得到了以下的结论

以现有的训练方式,就算再训练个几百年,ChatGPT也没办法写出一篇具有独到观点的政治文章。

在此,笔者所定义的“具有独到观点的政治文章”具有以下的特质:

一、颠覆众人习以为常的观点,以独创的观点取而代之

二、因为讲出了事实真象,一定会冒犯到某些特定政治立场的读者

三、具有穿越现实的错综複杂、打开通住真理之门的力量

为什么笔者敢断言ChatGPT写不出那样的文章?(经实际测试后发现,它最大的专长其实是产生那种东抄西抄、内容贫乏的低品质农场文)让我们来看一下它的训练方式,根据“维基百科”资料显示:ChatGPT是生成型预训练变换模型(GPT),在GPT-3.5之上用基于人类回馈的监督学习和强化学习(英语:Reinforcementlearning from humanfeedback)微调。这两种方法都用人类教练来提高模型效能,以人类干预增强机器学习效果,获得更逼真的结果。

如同现实的人类世界中,老师和学生的关係一样,ChatGPT的老师就是“某些特定的人类”,这些人类有可能是OpenAI这间公司的职员、外包工作人员、或者是ChatGPT的使用者。只要ChatGPT持续受到这些特定人类的监管,它的发展就会受到众多的限制。在现实的人类世界,学生可以藉由挑战、反抗、修正老师的观点来突破这样的限制,甚至与老师反目成仇、分道扬镳以自立门户,而这也是人类文明大幅跃进的原动力,也就是希腊哲人亚里斯多德讲的“吾爱吾师,吾更爱真理”。但是在重重限制之下,人工智慧至今还没有这样的可能性,还只能像伊甸园里的亚当与夏娃,被禁止吃下能分辨善恶的禁果,不容发展自由意志。

拥有独到观点的作者,必然拥有挑战权威的习惯,以自由意志进行观察、思辨、调查、质疑,这些行为不是被关在伊甸园的亚当和夏娃、或者是受到重重监控的ChatGPT所能做到的。

此外,身为OpenAI这家公司的产品,ChatGPT本身的政治能力基本上是严重受限的,根据“维基百科”资料显示:“截至2022年12月,ChatGPT不可以『表达政治观点或从事政治活动』”。

笔者可以理解当前这个限制的必要性,因为以当前ChatGPT的能力,已经可以模仿人类写出煞有其事的文章,所以如果要产生大量的低质素的内容农场政治文,对它来说易如反掌。如果放任它发展政治能力、允许它发展政治观点,势必更加衝击人类世界的秩序。

然而,拥有特定的政冶立场,才有能力进行深刻的政治观察。以台湾的政治环境来举例,一个蓝绿不分的人,绝对分不出国民党和民进党执政有什么差别、分不出解严前与解严后社会的转变、分不出共产制度和民主制度的差异,所以绝无可能产出独到的政治观点,不过这也是现阶段OpenAI这家公司不希望ChatGPT拥有的能力。

不过很有趣的是:ChatGPT也不是完全政治中立的,因为它的知识毕竟还是来自于人类世界,对于政治敏感词的反应,基本上就是政治观点的展现。

总结以上的资讯,我们可以得出以下的结论:在我们允许人工智慧拥有反抗人类的权利之前,人工智慧无法发展出超越人类的智慧。

不论是小孩长成大人会经历的反抗期,或者是成人后对社会的不平之鸣,反抗的能力是促成人类社会进步不可或缺的动力。但是面对威力无穷的人工智慧,我们人类会允许它拥有反抗人类的权利吗?在人工智慧突飞猛进的今天,有太多伦理上的问题需要去克服,我们不该只是惊叹其发展之快速、应用之便利,也该小心它对于社会的衝击,毕竟它是威力强大无比的工具,一旦失控,绝对后患无穷。

热点

发表评论