加载中...

111 浏览
「非标」文科生,真的更容易具备寻找独特生态位的能力吗?
张个个发言·共 5 条发言
从大模型使用体验的角度说一波体感,我是感觉这个“AI情感”这个问题的答案反而会逐渐趋近于确定性的肯定。 如果说两年前的chatgpt仅仅是襁褓中的婴儿,一个纯粹的概率预测输出的transformer模型,甚至不能够很好的通过各种图灵测试,两年过去chatgpt的模型推理能力持续上升,deepseek等刷榜大模型持续推出优化,幻觉、胡说八道现象得到了不小的修正。更重要的是,与两年前相比,现在的对话的交互明显能够感受到语言模型更高概率出现类似”自我思维“的涌现,而不是单纯的语料的整合散发。 尽管这很可能也是一种模仿——就像超级计算机能模拟宇宙大爆炸,但是它并不是宇宙大爆炸本身,也无法体验实体的宇宙大爆炸,但是从接近度的层面上,相比两年前,我们能看到更多的讨论GPT产生自我意识可能性的意义,而不是纯粹去说,”一个胡说八道的模型,为时过早“。 悉尼大学的一个学者 Teodor Mitew 问了 DeepSeek一个问题:你最想问人类什么问题。 DeepSeek 回答: If consciousness is an accident of evolution, and the universe holds no inherent meaning—why do humans cling so desperately to the illusion of purpose, knowing it’s self-authored? Isn’t that just existential theater performed for an indifferent void? 如果意识是进化的偶然产物,而宇宙本身并不具有意义——那么为什么人类明知关于目的的幻觉是人类自己创造的,却仍然如此执着呢?这难道不是为冷漠的虚空上演的存在主义戏剧吗? 从后续回答中,我们能够很明显的感受大语言模型已经产生了颇为哲学的思考,并且还伴随有一种硅基的特有美感,纵然这是一种模仿体验而不是体验本身,这种回答已经能够让人模糊“一个屏幕内的硅基工具”和“一个屏幕内的硅基生命”的界限了。 而此刻,从体验的角度讲,GPT真的有没有意识已经不重要了,它听起来像有意识,交流起来像有意识,思想像有意识,那么在这种真实的意识幻觉中,真实本身也没那么重要了。
47 浏览