文 | 字母AI
“同事.Skill”這個GitHub項目火出圈了。
隨后還有什么“老板.Skill”、“前任.Skill”。
好像你身邊的每一個人都可以被Skill變成數字人。7*24小時的陪著你。
有的媒體說它能“完美復刻同事的語氣、甩鍋姿勢”,還有媒體說它“徹底替代你的同事”。
講真的,上次我看到這么賽博朋克的事情,還是《戰錘40K》里太空死靈這個種族的背景故事。
莫非我穿越了?
我看了一眼手機,一切正常。
于是我又從頭梳理了整場事件,最后我發現這件事本身就是技術社區的一次玩梗,卻在傳播中變得越來越煞有介事。
這不難理解,在這個人人都擔心被AI替代的今天,焦慮比真相更有傳播力。
01 所謂的“煉化同事”,其實就是個爬蟲加提示詞模板
同事.Skill這個項目非常簡單。
![]()
在colleagues文件夾下,每個“數字同事”就是一個子目錄,里面有幾個Markdown文件:Skill.md是主入口,work.md描述工作,persona.md描述性格,再加一個meta.json存放元數據。僅此而已。
![]()
所有信息被總結成幾個靜態文本文件,而不是使用向量數據庫做語義檢索,也不涉及任何模型訓練。
工作流程也直白。
項目提供了幾個Python腳本,其中feishu_auto_collector.py用來抓飛書消息和文檔,dingtalk_auto_collector.py 抓釘釘數據,wechat_parser.py解析微信聊天記錄,email_parser.py處理郵件。
這些腳本干的事情就是數據爬取和格式轉換,把原始文本整理成統一格式。然后把這堆文本喂給AI,讓它總結出這個人的“工作能力”和“性格特征”,生成那幾個Markdown文件。
運行的時候更簡單。
當你調用這個 Skill, Claude就會讀取那幾個靜態的Markdown文件作為上下文,然后按照描述的風格跟你對話。
就像你給演員一份劇本,告訴他“你現在要扮演一個說話愛用感嘆號、經常甩鍋給測試部門的產品經理”,演員照著演就行了。
同事.Skill本質上是一個遵循AgentSkills標準的提示詞+爬蟲工程項目,根本不是什么AI訓練項目,更不是賽博永生。
項目中“五層人格結構”確實存在,但這只是提示詞的組織方式,不是把這個人的思維方式和知識徹底分析透徹,里面也沒啥高深莫測的技術。
persona.md文件里把人格描述分成五層:Layer 0是硬性規則,優先級最高;Layer 1是身份認知,比如“我是前端工程師”; Layer 2是表達風格,比如“說話簡潔,不用 emoji”; Layer 3是決策模式,比如“遇到技術選型傾向保守”; Layer 4是人際行為,比如“不主動參與爭論”。
![]()
同事.Skill運行規則也寫得很清楚,先由persona部分判斷用什么態度接任務,再由work部分用技術能力完成任務,輸出時始終保持persona定義的表達風格。
說到底,它也只是在給Claude寫一份詳細的角色扮演指南罷了。
這種設計帶來的第一個問題是記憶。
這些Skill沒有持久化記憶系統。每次對話都是重新讀取那幾個靜態Markdown文件,不會根據新的交互學習和更新。
你跟它聊的內容,下次再調用這個Skill的時候它就忘了。它不記得你們昨天討論過什么技術方案,不知道項目進展到哪一步,更不會因為你的反饋而調整自己的回答風格。
項目的README里有句話說得很誠實:“原材料質量決定Skill質量”。
![]()
計算機圈里有句話叫做GIGO,全文是Garbage In,Garbage Out。翻譯過來是垃圾進,垃圾出,指的就是同事.Skill里提到的內容。
如果你的前同事本來就不愛發消息,聊天記錄里都是“收到”“好的”“1”,那生成出來的 Skill 基本就是個復讀機。再比如聊天記錄里技術討論很少,大多是閑聊和吐槽,那這個 Skill 也只能陪你閑聊和吐槽。
這還沒完,由于這是你設定給模型的角色,因此AI在長時間交互中會出現人格漂移,也就是逐漸偏離預設人格。
這是由于隨著對話輪次增加,上下文窗口里塞滿了新的對話內容,最初定義人格的那段提示詞在整個上下文中的權重被稀釋,模型就會逐漸“忘記”自己應該扮演什么角色。
以及,這個同事.Skill,沒辦法蒸餾出“專業知識和判斷邏輯”。
AI在扮演過程中會出現“專家悖論”的現象。就是說你越讓AI扮演懂技術、懂知識的角色,它反而會輸出錯誤的答案。
因為一旦要求AI扮演專家,AI會優先開始模仿專家的表達方式、語氣、甚至某些職業習慣,但這些額外的約束反而干擾了模型對問題本身的判斷。
同事.Skill、老板.Skill、前任.Skill,它們能提取的,只有最表面的東西。
口頭禪和表達習慣可以提取,比如“習慣用‘嗯嗯’開頭”“喜歡用省略號”。常用的技術棧和工具可以提取,比如“熟悉React和TypeScript”。顯性的工作流程可以提取,比如“代碼提交前先跑單元測試”。
但它提取不了復雜情境下的判斷力。
當出現一個從未遇到過的技術問題,需要權衡性能、成本、開發時間多個因素時,這個Skill給不出真正有價值的建議。
它提取不了創新性的問題解決能力。真正的工程師會在遇到瓶頸時想出巧妙的解決方案,但Skill只能重復它見過的模式。
它提取不了基于多年經驗積累的直覺。有經驗的人看到一段代碼會隱隱覺得“這里可能有坑”,但這種直覺無法被幾個Markdown文件捕捉。
說這個Skill能“用他的技術規范寫代碼”,這話只對了一半。
它確實能輸出符合某種風格的代碼片段,比如遵循特定的命名規范、代碼格式。
但遇到真正需要架構決策的時候,比如要不要引入新的技術棧、如何設計系統的擴展性、怎么平衡技術債務和業務需求,它就只能給出模棱兩可的建議,或者干脆重復訓練數據里見過的標準答案。
說到底,這是一個很有想法的Skill,展示了如何用結構化的方式封裝“人格”。
它更像是一個帶人設的聊天機器人,或者說是一個智能化的工作日志。把它當作知識傳承的輔助工具,這個定位是合理的。
但如果真的以為它能替代一個人,那只能說你被誤導了。
02 這事其實違法了
同事.Skill在項目說明里寫得很清楚,需要把同事的飛書消息、釘釘文檔、郵件喂進去。
這句話背后藏著巨大的法律風險。
問題的核心在于離職后的數據使用權。
《個人信息保護法》第13條規定,處理個人信息需要滿足幾個條件之一:取得個人的同意、為訂立履行合同所必需、為履行法定職責或法定義務所必需、為應對突發公共衛生事件、在合理范圍內處理已公開的個人信息。
現在的情況是,員工離職了,勞動合同已經解除。公司繼續使用他工作期間的數據來“煉化”成數字人格,這屬于哪一條?
答案是哪一條都不屬于。
沒有取得離職員工的新授權,因為大多數情況下根本沒人問過他。勞動合同已解除,不再是“履行合同所必需”,因為合同關系已經終止,繼續使用數據沒有合同基礎。
將數據用于AI訓練超出了條款中的合理范圍,因為員工發送工作消息時的合理預期是用于工作溝通,而不是被拿去訓練AI。
違反《個人信息保護法》可能面臨責令改正、警告、沒收違法所得、罰款。
一般違法情節者,責令改正、警告、沒收違法所得,拒不改正的處 100 萬元以下罰款。
情節嚴重者,由省級以上監管部門處5000萬元以下或者上一年度營業額5%以下罰款,同時可責令暫停相關業務、停業整頓、吊銷相關證照等。
更麻煩的是敏感信息。
工作聊天記錄里不只有工作內容,還可能包含個人健康狀況,比如“今天身體不舒服,請假”;家庭情況,比如“孩子生病了,要早走”;財務信息,比如“這個月房貸壓力大”;人際關系,比如對其他同事的評價。
這些都屬于敏感個人信息。
《個人信息保護法》第28條規定,處理敏感個人信息需要取得個人的單獨同意。
注意這里是“單獨同意”,不是入職時簽的那個籠統的數據使用協議可以覆蓋的。
但這些Skill項目的操作流程里,完全沒有這個環節。它們只是用爬蟲一股腦地把所有聊天記錄都轉換成Markdown格式再喂給AI,不管里面有什么內容。
這意味著每一個被“煉化”的同事 Skill,都可能違反了敏感信息保護規定。而且這個違規不是一次性的,是持續的。因為每次調用這個 Skill,就是在處理這些敏感信息。
你以為這就完了?
項目要求用戶提供微信的聊天數據,并且還在項目上推薦了三款工具。
![]()
根據《騰訊微信軟件許可及服務協議》,未經騰訊書面許可,對微信運行過程中的數據進行復制、讀取、衍生開發,均屬于違規行為。
《數據安全法》第45條規定,違反數據安全保護義務,造成數據泄露等嚴重后果,構成犯罪的,依法追究刑事責任。
這不是鬧著玩的,企業數據泄露是有刑事責任的。
很多人可能覺得這只是“整活”,不會真的有人追究。
可“整活”從來不是免死金牌。如果真的有公司開始用這種方式“留住”離職員工,那就準備吃官司吧。
離職員工發現自己被“煉化”了,他完全可以向相關部門投訴,要求公司刪除相關數據并賠償損失。
公司因此泄露了商業秘密或其他員工的信息,還可能面臨其他員工的集體訴訟。如果被監管部門立案調查,即便最后沒有頂格處罰,光是調查和整改的成本就足夠公司喝一壺的。
03 從玩梗到神化
這件事的起源其實很簡單。X平臺用戶發了一條推文:“被畢業的同事其實并沒有消失,他們只是被蒸餾成了 Token,換成另一種形式陪伴你!”以此調侃步入agent時代后,所有企業都在以token的消耗量判斷模型的價值。
![]()
這條推文在小圈子里引發了共鳴。因為它戳中了一個普遍的痛點,人人都擔心自己被AI替換掉。
于是就有了如今“煉化”同事的Skill。
項目在GitHub上發布后,所有人都知道這是個玩具。
但事情很快變味了。當老板.Skill、前任.Skill等衍生項目出現后,話題開始從技術實驗變成情感寄托。
不了解技術的人看到這些梗,會以為真的可以把一個人“復活”成AI。從玩梗到誤解,只差一個傳播鏈條。
當這事進入大眾輿論場中,敘事開始偏離事實。
其中的技術被夸大了100倍,社會影響則放大了1000倍。
一個簡單的文本拼接工具,被包裝成了“數字永生”。一個GitHub上的玩具項目,被渲染成了“職場生存危機”。一段很普通的提示詞,被解讀成了“AI替代人類的開端”。
還是我開頭說的那句話,焦慮比真相更有傳播力。
大眾需要的不是準確的技術報道,而是能引發情緒共鳴的故事。
這場從技術社區玩梗到大眾神化的過程,技術在傳播中失真了。
一個項目從開發者社區傳播到輿論,每經過一個環節,技術細節就被簡化一次,敘事就被夸張一次。
到最后,原本的python爬蟲,就變成了“數字永生”。
當大多數人不具備基本的 AI 知識,就很容易被這種敘事誤導。他們不知道提示詞工程和模型訓練的區別,不知道上下文注入和真實記憶的區別,不知道角色扮演和人格復制的區別。
這種認知空白,給了夸大敘事生存的空間。
我認為真正值得擔心的并不是同事.Skill,或者老板.Skill這些項目本身,而是大眾對技術的系統性誤讀。
為了流量而夸大技術能力,會誤導公眾對AI的認知。
當我們把注意力都放在“同事被煉化”這個噱頭上時,真正重要的問題被忽略了。
如何在AI時代保護個人數據權利?
這個問題沒答案,但它可比什么賽博永生重要得多。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.