ChatGPT思考(一)新工具的提升与缺憾

频道:ChatGPT 日期: 浏览:

ChatGPT思考(一)新工具的提升与缺憾

原创
2023-05-02 21:56
·
愚恒随记

为什么会想要聊这个话题?最近chatgpt非常的火,无论金融市场,科技领域,还是生活方面,大家给予了chatgpt极大的关注。同时,也有很多人会担心,我们未来的很多工作和生活的各方面都会被ai所改变或是代替,这会促使我去思考:哪些东西会被ai改变?ai的局限性有哪些?有什么东西是不会或者不容易被ai科技所改变的?有什么东西是只能我们人类去做的?我们面对未来的ai世界,能做些什么力所能及的呢?

科技提升效率:说白了AI是一种科技产物,是科技不断升级后的一种技术进步,它和过去的科技一样,带来的是一种效率的提升。

高效、省时、准确:就拿之前在New Bing上的测试来看,如此长的文章,只是通过提几个问题简单几分钟就完成了。chatgpt或者其他类似的工具,它可以让我们比过去更快且更精确的获得高质量的信息,以减轻我们的工作量。

各领域全面提升:只要涉及信息数据处理的,各个领域都会得到全面的提升,比如其他类型的ai工具,可以帮助我们更高质高效的进行绘画,编辑视频,创建文案,编写程序等等。未来即使是更细分的领域,甚至完全符合每一个人的性格偏好的个性化工具也会出现。

工具成本降低:工具给我们带来的好处就在于它提升的效率,同时也降低了使用的成本。从电到交通运输到汽车,到电脑到手机,再到现在的AI所有的这些都是这样,相信在未来,ai的使用成本也会降低,让人们可以以相对更低的成本使用更好的工具。

工具的组合,工具的工具:ai本身的智能性,高效工具性,通过多种ai工具的组合,未来可能可以达成1+1>10的效果,同时,工具与工具的结合,或许还可以创造性的打造工具的工具。

指数级的提升:通过理论推导和思想实验,我觉得无法忽视的是未来效率提升的比例,或许有些目前只有50%,100%,但未来更多的是指数级的,比如1000%,10000%甚至百倍,万倍,亿倍。这也是ai可以带来变革的原因之一吧,因为它的能力或许大大超出了很多人的想象。

提升单兵作战能力:工具效率的指数级提升,可以大幅提高单兵作战的能力。未来,在有些领域,可能一个人或是一个小团队,就可以完成过去很多人或是一个大型组织都无法完成的事情。

科技提升的局限性与两面性:

局限性:此次以ChatGPT为代表的科技进步,可以改变一些领域,甚至是颠覆,但却无法改变一切领域。因此无论从内容,形式,影响等因素来看,目前都还有很大的局限性。

影响领域的局限性:作为工具,这次的进步更多的是作用于信息、数据、互联网相关的领域。对物质世界、人类精神世界的直接改变,暂时来看是比较小的。也就是说,工具能大幅提高一部分问题的解决效率,但对于另外的问题,则有很大的局限性。

使用门槛的局限性:不是人人都能用,也不是人人都会用,使用这类工具也是需要学习的,需要时间去慢慢普及的,这是一个循序渐进的过程。

内容的局限性:目前来看,更加的普适,而非专业,越是专业细分的领域,越是小众的话题,其目前能够提供的帮助越少。

其他:文章最后附有AI自己对自身局限性的回答。其中,依赖预训练这一条或许是一种很大的局限。

两面性:有利就有弊,或许有些现在还看不到,但是或许有一天会显现。

高效却更卷:快,高效,低成本都是好的一面。但同时,工具的便利化,高效化也会加剧竞争,加速有些领域的变革,淘汰落后产能,比如当下就能看到的自媒体及相关领域市场,已经由ai的出现产生了很大的变化。因此,在有些领域,更快的学习新工具的使用似乎就变得很重要了,领域里的内卷也会更加严重。

工具中性,人性二元:工具只是工具,但人类对工具的使用却是可以两面性的。或许未来的ai也会在科技的不断进步,人类的不断调整中发展出善与恶,创造或是毁灭。

改变与不变?这些越来越强大的工具一定会改变很多领域,但是有没有不容易改变的东西?或者换句话说,作为工具使用者的人类,我们的改变跟的上科技的变化吗?我们自己在科技作用下的自我进化又有多大的提升?

附:AI自己对自身局限性的回答,个人觉得应该记录以下。

1. 有限的知识范围。这些模型都是通过互联网上的大量文本训练而来,知识面还是比较有限的,很多领域的知识还达不到人类的水平。

2. 缺乏情感智能。这些模型难以理解语言中的情感和态度,难以进行情感分析和生成情感表达的回复。

3. 依赖预训练。这些模型都是基于预训练模型,无法像人类那样进行终身学习和知识积累。预训练结束后模型的知识就固定了。

4. 缺乏共情能力。模型难以从对方的角度去思考问题,难以产生共情的回复。

5. 缺乏长期记忆。模型难以在长对话中记住之前的语境和讨论内容,容易产生矛盾和重复。

6. 缺乏推理和联想能力。模型难以进行复杂的推理和联想,难以产生创造性的回复。

7. 语言表达能力有限。模型的语言表达还不够丰富和灵活,生成的回复可能显得比较生硬和重复。

8. 易受数据的影响。如果训练数据中存在偏见或者有害内容,模型也可能学习和产生这些有害回复。

9. 缺乏多模态理解。现有模型主要依赖文本,无法很好地理解图片、视频、音频等多模态信息。

10. 安全和隐私隐患。对话数据和模型可能面临安全和隐私风险,可能被恶意利用。

附:AI自己对自身潜在弊端的罗列

1. 失业风险:许多工作将被AI取代,像驾驶员、零售员和客服等岗位都面临较大风险。这可能导致大规模失业,社会动荡。政府和企业需要提前制定应对方案。

2. 加剧贫富差距:AI的研发与应用需要大量资金和高端人才。一小部分大公司和精英人群可能会主导AI的发展并从中获利,而大多数中低端人群只会受到影响,加大社会贫富差距。

3. 安全和隐私风险:AI系统可能遭受黑客攻击,导致个人信息被盗用;也可能由于系统错误导致信息泄露。这需要加强AI安全与隐私保护。

4. AI武器风险:一些国家可能开发使用AI来制造自动化武器,这可能加剧地缘政治紧张,需要限制这类应用。

5. 算法偏见与不公:如果AI算法和数据存在偏见,它们也会产生偏见结果,如在招聘中对某些群体不公平。我们需要更加规范管理AI的数据与算法。

6. 自动化依赖:社会过度依赖于AI系统,这可能导致关键系统失灵产生严重后果。同时,人类自身判断与决策能力也会下降。应适度依赖AI,并保持人类能力。

7. 操纵与欺骗:AI生成的合成信息可能被用于网络舆论引导和欺骗行为。这需要提高公众识别这类信息的能力,并规范技术应用。

8. 社会冲击:AI带来的工作变革与经济影响可能导致社会不稳定,需要政府采取政策减缓这种冲击。

9. 难以理解的AI:随着AI的复杂化,其工作过程变得不透明难以理解。这可能带来一定的不确定性,同时也影响系统的管理与控制。研究可解释AI、加强对AI的监管。

10. 人类特异性衰减:长期过度依赖AI可能导致一些人类的独特技能如同情心、欣赏能力、想象力等逐渐减弱。应保证人类参与循环,培养人的独特素质。

关键词:

评论