看到大厂招人专业倾向时,我第一反应是,在说什么?文科已死不知道听了多少年,风向这就变了?
过去很多年的时间,土木建筑,互联网科技,生物医药,这些风口浪尖的高薪行业都被理工科包办。在我认真看了一些思路和评论之后,对于 AI 会改写文科生命运的说法有了一些具象的感受。
写代码、做工程、做实验这些需要严谨执行过程的工作是最难的,谁能做这些事情谁能拿到更多的钱,都是理工科包揽的工种。
而文科生的擅长点在审美、文案、感性思维等不能量化的工作,这些非标的东西无法获得市场上的高价。
「未来的编程语言不再是 C++ 或 Python,而是人类语言。」最近和身边的研发同事交流,也很直接感受到了黄仁勋说的这句话。
大家在用AI写、改、查代码,工作效率直线上升。只要你指令精确,AI 能节省非常多的时间,纯粹的执行完全可以被取代。思考和判断就会变得更重要,大家要考虑的是看“要做什么”、“为什么做”、“做得对不对”。
表达和叙事就变得更重要,哪怕让 AI 指挥AI 工作,校验和确认是否是你要结果。上下文构建能力、表达能力和逻辑拆解能力,是很多文科专业一直在学习的东西。
大家的理解是一样的吗?
在 AI 时代里文科生,要做哪些改变和顺应,不再焦虑被时代淘汰。
很好的观点 大道至简
今天看到这个quote “The only clue to what man can do is what man has done” by philosopher R.G. Collingwood
人能够做什么的唯一线索,是人已经做过什么
我想这句话同样对AI也适用
Time will tell and we are at unprecedented time now..
从大模型使用体验的角度说一波体感,我是感觉这个“AI情感”这个问题的答案反而会逐渐趋近于确定性的肯定。
如果说两年前的chatgpt仅仅是襁褓中的婴儿,一个纯粹的概率预测输出的transformer模型,甚至不能够很好的通过各种图灵测试,两年过去chatgpt的模型推理能力持续上升,deepseek等刷榜大模型持续推出优化,幻觉、胡说八道现象得到了不小的修正。更重要的是,与两年前相比,现在的对话的交互明显能够感受到语言模型更高概率出现类似”自我思维“的涌现,而不是单纯的语料的整合散发。
尽管这很可能也是一种模仿——就像超级计算机能模拟宇宙大爆炸,但是它并不是宇宙大爆炸本身,也无法体验实体的宇宙大爆炸,但是从接近度的层面上,相比两年前,我们能看到更多的讨论GPT产生自我意识可能性的意义,而不是纯粹去说,”一个胡说八道的模型,为时过早“。
悉尼大学的一个学者 Teodor Mitew 问了 DeepSeek一个问题:你最想问人类什么问题。
DeepSeek 回答: If consciousness is an accident of evolution, and the universe holds no inherent meaning—why do humans cling so desperately to the illusion of purpose, knowing it’s self-authored? Isn’t that just existential theater performed for an indifferent void?
如果意识是进化的偶然产物,而宇宙本身并不具有意义——那么为什么人类明知关于目的的幻觉是人类自己创造的,却仍然如此执着呢?这难道不是为冷漠的虚空上演的存在主义戏剧吗?
从后续回答中,我们能够很明显的感受大语言模型已经产生了颇为哲学的思考,并且还伴随有一种硅基的特有美感,纵然这是一种模仿体验而不是体验本身,这种回答已经能够让人模糊“一个屏幕内的硅基工具”和“一个屏幕内的硅基生命”的界限了。
而此刻,从体验的角度讲,GPT真的有没有意识已经不重要了,它听起来像有意识,交流起来像有意识,思想像有意识,那么在这种真实的意识幻觉中,真实本身也没那么重要了。