这是一个为 AI 时代的人类而建的空间,我们在这里讨论如何照料身心,也看看非标的人生都通向哪里。
本文将安利来自「新加坡AI创业」组织的一场 CoffeeChat。 ILLUCIO 的创始人@Judy 将与各位分享她如何做出了这款「AI X人文」的产品。 组织链接👉https://h5.smallwod.com/org/index.html?id=7 CoffeeChat 报名链接👉https://h5.smallwod.com/org/post/index.html?id=15120 或点进我的个人主页,我已分享到我的 Catch up ! 在发现这场 CoffeeChat 之前,我就在小红书上遇到过 ILLUCIO,当时只有英文版而且专注哲学赛道,就草草刷过了。今天正式试用了「通用学习」版的 illucio2,很喜欢。 首先我来比较一下它和 notebookLM 的不同——在过去很长一段时间里我都在使用 notebookLM 来帮我梳理各类材料,而它本来也是一个用于「理解一切」的工具,notebookeLM 的优势和其强大性能已经有无数人夸过了因此我在此不表,但在「学习」这个需求下,它缺乏一个真正的符合学习者直觉的「学习场景」——我确实可以在对话框中无限提问,也会得到 AI 的无限回答,但它缺乏结构,而且一旦提问路径过长,再想回顾前面的内容就会变得麻烦。 ILLUCIO 的学习不是,你对文本的所有问题都会以 Note 的形式在你的「学习材料」主体旁停留,因此你的注意力仍然会始终停留在当前的学习材料上。你可以随时停下在细枝末节上的追逐游戏,回到主干道,而不需要像在 notebbokeLM 一样陷入兔子洞。 因此我非常沉浸地学完了 ILLUCIO 的示例文本「注意力就是你所需要的一切」。这是我第一次尝试正面理解到底什么是 Transformer,非常奇妙,过去我一直把这当作一个「知道就好了没必要深究」的概念,但在 ILLUCIO2 的陪伴下,我从「RNN为何低效」开始,一步步理解了 Transformer 的结构和运作方式 ,也许明天这些知识就会从我光滑的大脑皮层上滑落,也许下周我又会在什么地方重新把它学一遍,但知识的壁垒正在粉碎,我又一次体会到了学习新知的快乐。置身 AI 时代真是太好了,我将无数次地感叹这一点。 我现在还没有开始用它来推进当前我自己的学习项目,我决定接下来试试看用 ILLUCIO来读《GEB》和《编码》。之后我也会来向大家反馈我的使用体验。 现在,它的创始人即将在 SmallWOD 上开一场 CoffeeChat,和各位分享她是如何做出这款「AI X人文」的产品的, 感谢@Judy 开发出这么好用的产品,如果你愿意在 SmallWOD 上开设产品反馈群就太好了,我也会在我们的读书社群尝试安利的。 以及欢迎大家关注小世界在新加坡的运营 @Ellen Cheng 你会从她的时间线上获取大量当前新加坡 AI 创业的信息——这个行业最优秀和最有开拓精神的一批人最近在关注什么?她们在思考什么?又在焦虑什么?无论你此刻置身这个世界的何处,都可以向那些精彩的小世界投去一瞥。 感谢阅读!
啊啊好心动啊,我也想试用一下!说起来我最近开始在用notebook lm学习,还是有点不带劲,还没有建立一个很舒适的学习场景,感觉还没有熟练掌握这个工具,因为学习主体会一直变,随着我问的问题而新增加进去的材料,我无法看见这样一个轨迹变化,就有点迷失其中,也想听听其他使用用户的经验耶
大家好,我是寸心,学艺术做设计师好多年了,现在是无业游民。我最关心的应该是ai对艺术的影响方面,其实我觉得ai是不可能取代艺术、设计和美本身的,更不可能替代有创造力的人。只是现在的社会结构没有给“艺术设计”这个学科位置,本来就是商品化的东西,要被更加廉价的工具所取代了。我来这里的原因是因为太喜欢它为什么永无止境这本书了,因为我也很想知道为什么“它”永无止境。感谢柯遥创造了这本书,给了我好多力量。我最害怕遇到的应该是男权社会气质比较重,或者对生活缺乏想象力的人吧。附上我画的小狗!
一点我的看法和问题! 最后的想法很有意思,这样将一个人提纯出来,是不是相当于赛博永生?那么基于赛博永生,ta对于一些问题的看法和ta的观念会不会出现一些改变?ta的决策还可以看作是人类观念的的决策吗?让一个和我们似乎不太一样的ai人参与我们的决策是否会有些不妥? 另外,被提纯出来的某人还是基于ta活着时的生活方式和思想理念的,开始我们要如何确定这就是ta,而不是某个被数据定死了的ai?(毕竟ta已经死了,而我们也不能确定ta的想法是否和ai真正一致)毕竟人表现出来的一面和自己真正的一面还是有不同的,无法得到ta全部的数据就意味着无法真正复刻ta吧?还是说要ta活着的时候自己提纯一个ta?
大家好,我是xia。1. 大学本科学的是临床医学专业,但是对成为医生这件事很有压力,感到迷茫和迟疑 2. 我现在处于迷茫期,仍然保有着好奇心和探索欲,喜欢看到自己不断进步成长,希望自己能做到自己认为不可能的事情。 3. 对这个社群的名字很感兴趣,有一种大概去芜存青的感觉?想在这里看看别人的想法和认识。 4. 这方面了解不多,可能是人如何善用AI 5. 不能帮助我们彼此理解的沟通方式、人身攻击等,不被当成一个有独立人格的人去尊重。
大家好!我是Hereticat, 一名心理学博士.现在的我, 每天都在”存在危机的恐慌”与”生产力解放的狂喜”之间反复横跳.一边折腾着怎么把GPU算力跑满,一边读更多的书,与朋友进行更深度的对话, 给自己的身体更多的关照.自从深度接触Agent架构后,我发现时间变成了一种立体的存在。这种对AI的探索反而促使我打破了身心二元论的思维局限。我不再把身体当成服务大脑的“工具”,身体本身就是我,和灵魂、大脑一样重要. #加入原因 & AI议题# 我爱”pro human”这个说法; 不是狂热的技术崇拜, 也不是极端的人类至上主义, 而是在硅基算力的无穷叠加下, 去看到那些不能被压缩, 被折叠的人类存在闪光点. 我现在关心的宏观AI议题是: 在AI巨头帝国化和以资本增长为底层逻辑的世界中, 随着人类在宏观系统中的"工具性价值"不断减少, 该如何抗拒陷入全民奶头乐的陷阱. 不那么悬浮的话题还有: AI翻译以及AI角色扮演对刻板印象的cascade effect, AI的阿谀奉承(sycophancy)对真实人际关系的负面影响, 以及对人过度自信的推波助澜; 还有一个, 如何通过教AI骂人使得我变得更有主体性并成为一个更好的人. 总之, 我想和大家一起构建属于我们自己的游戏规则和价值体系,这是我在这个时代建立“反脆弱性”的第一步。(退一步讲, 大家一起写写文章做project或product也很不错). #不希望在社群里碰到的# 除了大家都反感的人身攻击, 我最不希望遇到的是凡事上纲上线, 以及把一切交流都推向极端功利导向的人.
大家好!我是ting,大数据专业本科在读。 我喜欢看不同背景的人谈话交流、思维碰撞,分享多元观点,这会让我拓宽看世界的角度。 我来到这个社区是因为看到ke老师的分享,很好奇这会是一个怎样的社区。我非常期待从大家的分享中收获更多的观察角度、不一样的思考方式,以及探索更多的可能性。 我目前最关心的:在AI时代,人类如何和AI共存;AI与人类之间的边界是什么;以及意识上传这一技术的可能性与伦理风险。 我最不希望的是对立攻击、人身攻击、非黑即白的极端言论,期待大家能够理性讨论、相互尊重、求同存异
昵称:iris 领域:Computer Science(机器学习方向) 来因:刚到异国他乡留学,想念这种使用母语和人进行深度沟通的感觉。 议题:AI与人的边界(如何定义人类的思维?生成式AI的输出内容和人的产出本质区别是什么?)AI的可能性(是作为一种工具有其上限?还是能突破某种阈值达到改变世界的效果?是否有可能推断其发展趋势?) 厌恶:跳出观点讨论范畴的人身攻击
之前用 AI 完成的一个尝试,分享下过程中的想法,困惑和思考: 前情提要: flomo 是一个灵感/想法记录的卡片笔记工具,我很认可它的设计理念(想了解的朋友,我很推荐下少楠的那本书 《笔记的方法》 ,https://book.douban.com/subject/36615020/)。 但是核心问题是:我没法自己掌握和方便的分析数据,更重要的是,我对数据背后的那个「我」很好奇。 比如说: 我反复基于什么主题在思考? 这些主题背后反映了哪些特质? 某些想法是如何变化的? 所以最后,还是动手做一个更趁手的工具。 用 AI 写了个类似 flomo 的工具,本地+第三方部署,方便随时访问和同步,这就是我的素材库/弹药库。 跟 AI 交互用来做这三件事: 1. 主题化,比如,针对于我关于时间的思考梳理出来; 2. 反驳我,比如, 假设推演 AI 的持续性发展带来的失业如何又负反馈到大模型公司, AI 评价逻辑链条;( 这里可以更细化,比如用不同的思维方式,科学家 / 工程师); 3. 提供旁观者视角,这个世界即使是类似 E = MC^2这种接近真理的结论,也是存在框架和约束条件,关于我的想法的约束条件,有哪些是我这个记录者未知的?是什么处境什么前提是合理的? 其实基于这个工具,可以直接让 AI 根据我的论点生成文章。 但是我觉得在写作输出上要保守,这种事情得自己来的。 --- 刚好最近刷到新闻: 新一代的大模型不断发布,市场都担心软件行业被颠覆,所以软件股暴跌。 https://www.reuters.com/business/us-software-stocks-fall-anthropics-new-ai-model-revives-disruption-fears-2026-04-09/ 结合我自己的经历来看,AI 能完成越来越多的软件工作,那 SaaS 的价值还有吗? 脑子里有几个想法: 1. AI 很强,但跟它代替一切是两回事儿,这里面存在边界; 2. AI 能完成的是代码,但 SaaS 产品的价值似乎不只是那团代码的; 3. 利用 AI 完成的东西,责任人是自己, 但是一个公司的整个系统运行的 SaaS 是需要责任人的吧; 4. AI 能用现成的 Adobe,为什么非要重写呢,用现成的不香吗? 即使重写了,使用习惯,历史记录,迁移数据,都是很高的成本吧。 AI 低成本生成代码,满足个人的定制化需求,比如一些打卡/习惯养成等等的 app,自己 vibe coding 完全没问题。 但是一个公司里的人,用的 SaaS 系统似乎不需要个性化需求,反而是要标准/平均的,一个系统要运转下去,就不能太激进,因为不稳定。 --- 最近脑子里还冒出个想法,假设我们拥有一个人全部的记录材料,过去我们会通过阅读慢慢理解内化,当然这种内化大概只会留下几条名人名言。 可是有 AI,我们是不是可以把这个人从所有的材料中提纯出来,这种提纯不是简单的蒸馏,我觉得蒸馏只是在模仿表达,而且只是基于过去的数据形成的。 我想的这个,是一个可以决策的人,是一个动态的过程,是一个持续会发展的认知系统,它更复杂。 就让思维随机漫步了,如果大家有什么推荐/建议/想法的话,多谢分享!
Hello 我是Gerald, 美国湾区社科PhD在读,主业和兴趣都是Primitive technology,目前是Beginner tanner和Advanced bone worker,同时刚入坑bushcraft. 加入smallwod是好奇Ke老师干什么工作干得那么有激情都不更文了(纯好奇没有催更的意思hhh)。 关于AI时代我的想法,引用一下我之前看到新京报一篇文章《AI时代,文科还有出路吗》的感想,可能有点长: “两点我觉得最容易抓住的,一是AI将过去需要大量阅读和记忆的知识或者事实积累转化成了可以被即时调用的公共资源,省下了人类苦读和背诵的功夫。这一点往往给人一种似乎可以搜索到信息就等同于掌握了知识的错觉,也是我们在社媒上时常看到有人用AI信源自信辩论的原因。 我看到这一点,第一时间想到的是前两年我开始钻研笔记软件,把电脑当作我的外置大脑,所有读书笔记和思考笔记都电子化。这么做的原因和代价,是我的个人记忆不太牢靠,我时常记不住我读的具体内容,但我有一套根据自己思维方式建立的笔记管理系统,所以我大概知道我读过什么,去哪儿找,并且把从“记忆”省下来的时间用于思考如何对比、重构、反思和应用我所读的东西。因此,我削弱的“记忆”能力换来了更强的“整合”能力。在AI时代,AI正是一个更强的外置信息库,与我的笔记软件不同的是,AI的信息并不来源于我自己的阅读内容,因而要对AI提供的信息进行分辨和评估,还是需要使用者先有一定的知识积累和批判性思维训练,而这一点,正是新时代人文社科教育中应该占主导的部分。 第二点是人文精神和社会责任。作者提到“文科的判断力,必须嵌入真实系统才能被锻造。这意味着文科训练不再以“研究问题”为终点,而以“承担后果”为检验标准。”我认为这一点并不绝对,但绝对是一个很好的思考方向。在法律制定和技术应用中,如何平衡不同参与者的利益,让制度保障弱者的合理权利,甚至如何定义什么样的权利是合理的,这都需要对不同群体的生活状态、情感和生理需求有了解并且抱持基本的同理心。前段时间争论很久的“残疾人出行是否是占用社会资源”就是一个很好的例子。一个有人文关怀的社会,使用一部分资源来保障部分人正常出行、参与社会活动、接受教育的权利是完全合理的。如何制定可执行的法规、建设能够使不同人群受益的公共设施和制度,正需要人文社科的训练和研究成果。 下面是文中相关的内容: “然而,AI的到来打破的,正是这种均衡赖以成立的一个关键前提:学科资本的稀缺性。过去,深度积累(如钱钟书的“博闻强记”)之所以具有价值,是因为它难以复制,需要时间、记忆力与系统训练;而现在,AI正在将这种积累中的相当一部分转化为可以被即时调用的公共资源。文献综述、概念梳理、框架应用——这些曾经构成学科训练主体的能力,正在被快速商品化,成为任何人都可以低成本获得的“认知基础设施”。 这意味着竞争的性质正在发生转变。过去的竞争,是在既定边界内进行的深度积累竞争;而现在,竞争正在转向另一种维度:谁能够在不同知识域之间建立有效连接,谁能够在真实问题中整合多种认知资源,谁能够在不确定条件下作出承担后果的判断。在这一转变中,固守学科边界的人不只是失去了相对优势,而是逐渐暴露出其资本形式的局限性——他们所持有的,不再是稀缺的判断能力,而是可以被复制的标准化产出能力。” “文科可以通过语境嵌入(context embedding),使其判断力承担现实世界中的伦理和政治责任。文科的判断力,必须嵌入真实系统才能被锻造。这意味着文科训练不再以“研究问题”为终点,而以“承担后果”为检验标准。一个受过良好哲学、伦理学、心理学训练的人,如果他对伦理论证的掌握只停留在对文献的熟练综述,那么这种掌握在AI时代的价值是有限的。但如果他将这种训练带入一家医院的临床伦理委员会,参与关于是否使用AI诊断系统替代医生决策的真实辩论,在病人利益、医疗效率、算法偏见和责任归属之间做出真实的权衡,那么他所锻造的,就是AI无法模拟的判断能力——不是因为这种判断更聪明,而是因为它植根于真实的利害关系之中,带着真实的责任承担。语境嵌入的对象可以是医疗、法律、AI产品设计或政策制定,但核心要求是一致的:不再是从外部分析系统,而是作为系统的一部分运作,并对自己的判断负责。”” 至于最不想看到什么,一个社群中最糟不过是缺乏根据的讨论和情绪化的人身攻击,除此之外大概都能接受。
暂无成员