作者:BACKTHEBUNNY 编译:Cointime.com 237
AI放大了您的声音,但也淡化了您的存在。随着人工智能的存在越来越多,您的存在逐渐消退……
我看到了许多关于“如何使用人工智能”的内容,但却没有看到任何关于“什么时候不使用人工智能”的内容。对于人工智能来说,存在一个拉弗曲线,更多并不意味着更好。
有三种类型的写作,而语言模型只能完成其中的两种。
明确人工智能的最佳使用范围非常重要。语言模型不应该用于制造洞察和创意思维,因为它们的训练方式决定了这一点。它们并不是设计用来产生新颖的输出。它们被设计用来产生可预测的输出。
当我看到这条评论时,我感到很悲伤。我真的很喜欢@TTUNGUZ的作品。他的技术见解独特。我可以感觉到有一个人将多年的经验、思考和教训融合成了有实质性的东西。
这就是为什么我认为他如果追求这个方向会犯错。
当我阅读某人的作品时,我可以分辨出是他们的思考还是语言模型(LLM)的产物。ChatGPT因其只会重复而出名,它只是一个“吐出”信息的工具。如果你将其用于思想或分析,你可能会听起来像这个家伙。
然而,有时候这个家伙就是你所需要的。那么,你会给他什么样的工作呢?
语言模型在摘要和信息获取方面表现出色,但它们生成的洞察力是平凡的、符合常规的。因为这是它们训练所得的特性。
LLM序列预测生成的句子中,每个词都是基于前面的词在统计上最可能的下一个词。如果你正在进行创意思考……你应该将一系列词组成一句话,而这些词不是统计上最有可能的输出。
LLM的设计初衷是根据您的提示生成一系列在统计上最有可能(即可预测)的单词。独立思考和创意并不通过可预测的单词序列来表达,这从定义上就是如此。
新的东西往往在思维的尾巴中被发现,而不是在“最有可能的下一个词”的中间分布中。独特的写作存在于产生不太可能的事物的领域。你不能使用一个校准为最有可能产生新鲜、不太可能的东西的工具。
这就是为什么ChatGPT只是一个智商中等的工具。它只能借用别人已经说过的话。它是被众多人训练出来的。ChatGPT是你能找到的最勤奋的智商110的分析师。
想象一下,如果你雇佣了这样一个分析师,你会给他什么任务呢?
当你需要制作电子表格、进行研究以及其他基本上不需要创造力的工作时,你可以去找你可信赖的智商110的分析师。你向他寻求信息,而不是他的观点。
你不会让他提供新的创意或不同的分析。因为记住,你是在与这个人合作。
有三种类型的非虚构写作。LLM只能完成其中两种:
类型1写作:“这是发生了什么”(LLM适用)
报道事件,总结和提炼信息。告诉我新闻,找到数据等,然后进行报告。这是最常见的一种,也是竞争最激烈的,因为它不需要创造力。在这里几乎不需要分析或思考。
执行者:记者、初级分析师、新闻撰稿人和“你需要知道这些”的类型。
类型2写作:“对所发生事情的观点”(LLM适用)
这是关于事件或观念的社论,或者基于数据进行合理推断。你没有创建这个观点、事件或研究,但你对此有自己的观点。“这就是为什么某事物是好/坏的。”
初级分析师是信息收集者(类型1)。高级分析师是信息推断者:需要思考、分析和专业评估。这需要批判性思维,但很少涉及抽象或创造力。
执行者:权威人士、研究人员、资深分析师、评论员等。
类型3写作:“思考问题的框架”(LLM非常不适用)
这是创意洞察和系统思考的领域。你正在生成有差异化的、创意的观点,以评估或解释某件事情,这通常需要抽象能力。这才是“第一原理分析”的真正含义(在这一点上变得被滥用了)。
这种写作是最不常见的,因为它是最难创造的。它也是风险最高、回报最大的。你要冒着一些新东西的风险。这将使你暴露于批评、侮辱、赞美、钦佩等各种评论之中。
第三类是很难做到的,因为你在智力上很脆弱,而且是非正统的。由于这里是互联网,您的脸皮必须足够厚,以应对由此引发的万花筒般的反馈。新事物会扰乱人们的先入之见,而绝大多数人都会觉得 "集体思维 "的假设令人欣慰。
没有人喜欢在公理上被打一拳。法学硕士对公理是仁慈的。
第三类写作并不一定是逆向思维,它只是对教条无动于衷,勇于面对批评。我不喜欢把 "逆向 "理解为为了逆向而拒绝共识的人,我认为它是指如果你碰巧是反传统的,就不怕被人讨厌。
很难确定是谁干的,但你一看就知道是谁。这是哲学思考和概念旋转的一种变体,但我不认为 "哲学家 "一词在此有用。
在我看来,那些将观点重新包装得优雅易懂的人并不完全算在内(比如塔勒布或乔丹-彼得森),尽管他们也不完全是第二类写作(2.5类?)
DAVID FOSTER WALLACE显然是第三类。
我最喜欢的第三类思想家是@VGR、@RORYSUTHERLAND、@BYRNEHOBART、Moldbug和@VITALIKBUTERIN。他们的想法都是自己的。聆听他们的思想是一种享受。我们站在巨人的肩膀上,他们让巨人变得更加高大。我非常感谢他们。
如果您将法律硕士用于研究写作(第二类):很好!这是对技术的正确使用。它在信息提炼和转述方面非常出色。需要广告文案?10个电影标题创意?总结一篇研究论文?ChatGPT就是您的最佳选择。我们的110-IQ分析师在这里提供。
这幅图涵盖了LLM的大部分正确应用。然而,出于第三类写作的原因,我强烈建议不要使用下面强调的2个用例。
我无法想象我提到的任何人会使用LLMs来写作。部分原因是因为抽象者喜欢抽象。这是他们擅长的,他们显然也很享受。一个觉得驾驶有疗愈效果的人不会使用自动驾驶汽车。
你真的喜欢你所做的吗?
我能够判断出你是否在思考时使用了LLMs,不是因为LLM无法完美地模仿你的散文,而是因为观点会变得陈旧。声音听起来像你,但你的灵魂已经被掏空。
你写作中的每一点LLM...都削弱了你的存在感。
LLMs无法合成新的框架或抽象,而Good Will Hunting那个家伙会介入其中。你可以训练一个LLM的声音听起来像Vitalek,但你无法训练它具备他的抽象能力。
AI并不是你能力的万灵药。如果每个人都站在一个6英寸高的块上,这个块不会以有用的方式让你更高。如果每个运动员都使用类固醇,每个人都会更强壮、更快,但你不能通过充实你的大脑来拥有汤姆·布雷迪或斯蒂芬·库里的投篮技术。
因为那些已经是精英的人也在使用它,这意味着才能仍然是决定因素。拥有与其他人相同的工具并不是竞争优势。
你必须有一个与众不同之处。没有任何工具可以解决这个问题。精英总是会脱颖而出。如果你像依赖拐杖一样使用AI,你将把自己降级为平庸内容的炼狱。你所使用的每一点AI都是从创造中剥离出来的一部分你。
如果你发现有人在使用LLMs,你会在意的。你也会不喜欢,这不是一个反对科技的事情。你甚至可能感到一丝背叛的暗示。这是因为你希望看到马格努斯下棋,而不是看计算机下棋。
两个AI下棋从技术上讲更出色,但这无关紧要,你想看人类下棋。
你也会想读人类的作品。这是人类普遍演化出来的,你无法用理性来否认。
只要输出是面向人类的(而且它肯定是),你就会希望由人类来完成。因为你演化出来的本能是寻找和欣赏卓越的人类产出。
神经网络工程师不会改变这一点,只会让它更难以辨别。
所有评论