机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 64|回复: 0

什么AI“炼化”同事 全是胡扯

[复制链接]

2万

主题

3万

帖子

21万

积分

超级版主

Rank: 8Rank: 8

积分
211103
发表于 6 小时前 | 显示全部楼层 |阅读模式
“同事.Skill”这个GitHub项目火出圈了,随后还有什么“老板.Skill”、“前任.Skill”。
好像你身边的每一个人都可以被Skill变成数字人。7*24小时的陪着你。
有的媒体说它能“完美复刻同事的语气、甩锅姿势”,还有媒体说它“彻底替代你的同事”。

同事.Skill这个项目非常简单,在colleagues文件夹下,每个“数字同事”就是一个子目录,里面有几个Markdown文件:Skill.md是主入口,work.md描述工作,persona.md描述性格,再加一个meta.json存放元数据。仅此而已。
所有信息被总结成几个静态文本文件,而不是使用向量数据库做语义检索,也不涉及任何模型训练。
项目提供了几个Python脚本,其中feishu_auto_collector.py用来抓飞书消息和文档,dingtalk_auto_collector.py 抓钉钉数据,wechat_parser.py解析微信聊天记录,email_parser.py处理邮件。
这些脚本干的事情就是数据爬取和格式转换,把原始文本整理成统一格式。然后把这堆文本喂给AI,让它总结出这个人的“工作能力”和“性格特征”,生成那几个Markdown文件。
当你调用这个 Skill, Claude就会读取那几个静态的Markdown文件作为上下文,然后按照描述的风格跟你对话。
就像你给演员一份剧本,告诉他“你现在要扮演一个说话爱用感叹号、经常甩锅给测试部门的产品经理”,演员照着演就行了。
同事.Skill本质上是一个遵循AgentSkills标准的提示词+爬虫工程项目,根本不是什么AI训练项目,更不是赛博永生。

项目中“五层人格结构”确实存在,但这只是提示词的组织方式,不是把这个人的思维方式和知识彻底分析透彻,里面也没啥高深莫测的技术。
persona.md文件里把人格描述分成五层:
Layer 0是硬性规则,优先级最高;
Layer 1是身份认知,比如“我是前端工程师”;
Layer 2是表达风格,比如“说话简洁,不用 emoji”;
Layer 3是决策模式,比如“遇到技术选型倾向保守”;
Layer 4是人际行为,比如“不主动参与争论”。
同事.Skill运行规则也写得很清楚,先由persona部分判断用什么态度接任务,再由work部分用技术能力完成任务,输出时始终保持persona定义的表达风格。说到底,它也只是在给AI大模型写一份详细的角色扮演指南罢了。

这种设计带来的第一个问题是记忆,这些Skill没有持久化记忆系统。每次对话都是重新读取那几个静态Markdown文件,不会根据新的交互学习和更新。
你跟它聊的内容,下次再调用这个Skill的时候它就忘了。它不记得你们昨天讨论过什么技术方案,不知道项目进展到哪一步,更不会因为你的反馈而调整自己的回答风格。
如果你的前同事本来就不爱发消息,聊天记录里都是“收到”“好的”“1”,那生成出来的 Skill 基本就是个复读机。再比如聊天记录里技术讨论很少,大多是闲聊和吐槽,那这个 Skill 也只能陪你闲聊和吐槽。
这还没完,由于这是你设定给模型的角色,因此AI在长时间交互中会出现人格漂移,也就是逐渐偏离预设人格。
这是由于随着对话轮次增加,上下文窗口里塞满了新的对话内容,最初定义人格的那段提示词在整个上下文中的权重被稀释,模型就会逐渐“忘记”自己应该扮演什么角色。

这个同事.Skill,没办法蒸馏出“专业知识和判断逻辑”。
AI在扮演过程中会出现“专家悖论”的现象。就是说你越让AI扮演懂技术、懂知识的角色,它反而会输出错误的答案。
因为一旦要求AI扮演专家,AI会优先开始模仿专家的表达方式、语气、甚至某些职业习惯,但这些额外的约束反而干扰了模型对问题本身的判断。
同事.Skill、老板.Skill、前任.Skill,它们能提取的,只有最表面的东西。
口头禅和表达习惯可以提取,比如“习惯用‘嗯嗯’开头”“喜欢用省略号”。常用的技术栈和工具可以提取,比如“熟悉React和TypeScript”。显性的工作流程可以提取,比如“代码提交前先跑单元测试”。

当出现一个从未遇到过的技术问题,需要权衡性能、成本、开发时间多个因素时,这个Skill给不出真正有价值的建议。
真正的工程师会在遇到瓶颈时想出巧妙的解决方案,但Skill只能重复它见过的模式。
有经验的人看到一段代码会隐隐觉得“这里可能有坑”,但这种直觉无法被几个Markdown文件捕捉。

说这个Skill能“用他的技术规范写代码”,这话只对了一半。
它确实能输出符合某种风格的代码片段,比如遵循特定的命名规范、代码格式。
但遇到真正需要架构决策的时候,比如要不要引入新的技术栈、如何设计系统的扩展性、怎么平衡技术债务和业务需求,它就只能给出模棱两可的建议,或者干脆重复训练数据里见过的标准答案。
说到底,这是一个很有想法的Skill,展示了如何用结构化的方式封装“人格”。
它更像是一个带人设的聊天机器人,或者说是一个智能化的工作日志。把它当作知识传承的辅助工具,这个定位是合理的。
但如果真的以为它能替代一个人,那只能说你蠢无可及。

同事.Skill在项目说明里写得很清楚,需要把同事的飞书消息、钉钉文档、邮件喂进去。
这句话背后藏着巨大的法律风险,问题的核心在于离职后的数据使用权。
《个人信息保护法》第13条规定,处理个人信息需要满足几个条件之一:取得个人的同意、为订立履行合同所必需、为履行法定职责或法定义务所必需、为应对突发公共卫生事件、在合理范围内处理已公开的个人信息。
现在的情况是,员工离职了,劳动合同已经解除。公司继续使用他工作期间的数据来“炼化”成数字人格,这属于哪一条?
没有取得离职员工的新授权,因为大多数情况下根本没人问过他。劳动合同已解除,不再是“履行合同所必需”,因为合同关系已经终止,继续使用数据没有合同基础。

将数据用于AI训练超出了条款中的合理范围,因为员工发送工作消息时的合理预期是用于工作沟通,而不是被拿去训练AI。
违反《个人信息保护法》可能面临责令改正、警告、没收违法所得、罚款。
一般违法情节者,责令改正、警告、没收违法所得,拒不改正的处 100 万元以下罚款。
情节严重者,由省级以上监管部门处5000万元以下或者上一年度营业额5%以下罚款,同时可责令暂停相关业务、停业整顿、吊销相关证照等。
工作聊天记录里不只有工作内容,还可能包含个人健康状况,比如“今天身体不舒服,请假”;家庭情况,比如“孩子生病了,要早走”;财务信息,比如“这个月房贷压力大”;人际关系,比如对其他同事的评价。
《个人信息保护法》第28条规定,处理敏感个人信息需要取得个人的单独同意。
注意这里是“单独同意”,不是入职时签的那个笼统的数据使用协议可以覆盖的。
但这些Skill项目的操作流程里,完全没有这个环节。它们只是用爬虫一股脑地把所有聊天记录都转换成Markdown格式再喂给AI,不管里面有什么内容。
这意味着每一个被“炼化”的同事 Skill,都可能违反了敏感信息保护规定。而且这个违规不是一次性的,是持续的。因为每次调用这个 Skill,就是在处理这些敏感信息。

项目要求用户提供微信的聊天数据,并且还在项目上推荐了三款工具。
根据《腾讯微信软件许可及服务协议》,未经腾讯书面许可,对微信运行过程中的数据进行复制、读取、衍生开发,均属于违规行为。
《数据安全法》第45条规定,违反数据安全保护义务,造成数据泄露等严重后果,构成犯罪的,依法追究刑事责任。
这不是闹着玩的,企业数据泄露是有刑事责任的。

离职员工发现自己被“炼化”了,他完全可以向相关部门投诉,要求公司删除相关数据并赔偿损失。
公司因此泄露了商业秘密或其他员工的信息,还可能面临其他员工的集体诉讼。如果被监管部门立案调查,即便最后没有顶格处罚,光是调查和整改的成本就足够公司喝一壶的。

一个简单的文本拼接工具,被包装成了“数字永生”。一个GitHub上的玩具项目,被渲染成了“职场生存危机”。一段很普通的提示词,被解读成了“AI替代人类的开端”。
大多数人不具备基本的 AI 知识,就很容易被这种叙事误导。他们不知道提示词工程和模型训练的区别,不知道上下文注入和真实记忆的区别,不知道角色扮演和人格复制的区别。
这种认知空白,给了夸大叙事生存的空间。
我认为真正值得担心的并不是同事.Skill,或者老板.Skill这些项目本身,而是大众对技术的系统性误读。
为了流量而夸大技术能力,会误导公众对AI的认知。
当我们把注意力都放在“同事被炼化”这个噱头上时,真正重要的问题被忽略了。
如何在AI时代保护个人数据权利?


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2026-4-7 19:09 , Processed in 0.105288 second(s), 19 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表