![]()
![]()
圖片由AI生成
出品|搜狐科技
作者|梁昌均
編輯| 楊 錦
“將冰冷的離別化為溫暖的Skill,歡迎加入賽博永生。”
這是全球最大代碼開源平臺GitHub上,一個名為“同事.skill”的項目打出的標語,上線短短幾天就收獲了超7K星,引發關注和爭議。
無獨有偶,國內有企業就在進行這樣的嘗試。有游戲傳媒公司嘗試將離職員工訓練成AI數字人繼續工作,可以用來做咨詢、邀約、制作PPT和表格等簡單的工作。
AI煉化同事、賽博打工人,有關話題沖上社交平臺熱搜,更讓無數打工人破防,甚至還衍生出前任.Skill、導師.Skill、老板.Skill等看起來有些黑色幽默的變種。
不過,當人被AI封裝,也帶來諸多法律問題,并引發了大眾對AI應用邊界的爭議。AI,再一次挑戰著人的生存價值。
![]()
AI蒸餾煉化技能,侵犯員工權益嗎?
你的同事跳槽了,留下大量文檔沒人維護?你的搭檔轉崗了,熟悉的默契一夜歸零?這些可能是打工人在職場中經常遇到的糟心事。
但現在,雖然你的搭檔已離職,工位已清空,但有機會和其AI分身共同工作。
通過收集離職員工的工作經驗、聊天記錄、文檔郵件等信息,并喂給大模型,便能蒸餾煉化出一個AI分身,可以用相同的語氣說話,用相同的方法干活。前述基于Claude Code開發的AI Agent工具“同事.skill”就可以實現這樣的功能。
![]()
Agent Skill(智能體技能)是美國大模型公司 Anthropic 去年12月提出的規范,核心是將專業知識、工作流程等封裝成標準化模塊,讓Agent即插即用,實現穩定可靠地執行特定任務。
在今年掀起的“龍蝦”熱潮中,OpenClaw官方就推出了有上萬種Skill的社區,騰訊對此進行了本地鏡像,百度則將旗下的搜索、百科、網盤等產品均封裝為Skill供調用。
只不過,當Skill開始替代人時,這讓無數打工人慌了。在社交平臺上,不少員工稱,公司開始讓全員寫Skill,并出現了自動回復.Skill、PPT美學.Skill、會議紀要.Skill等各類Skill。
不少人質疑這是不是一種知識收割。還有評論認為,“AI蒸餾煉化員工就是侵權,感覺立法跟不上”。
北京市天元律師事務所合伙人李昀鍇對搜狐科技表示,員工在職期間產生的業務流程、工作方法、項目文檔等,屬于職務成果或商業秘密,按勞動合同約定,其知識產權和所有權一般歸屬企業。
“企業如將業務過程中的非個人化且完成去標識化的客觀業務數據喂給AI,訓練企業專屬的業務模型或數字分身,法律上是合法的。”
紅線在于個人隱私信息。
搜狐科技查詢了解到,《生成式人工智能服務管理暫行辦法》規定,生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練數據處理活動,涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形。
李昀鍇提到,如果所謂的AI分身使用了員工的真實姓名、肖像、聲音等個人隱私信息,屬于對員工的人格權的侵犯。就算在職期間獲得了員工授權,但企業也沒有免費、永久使用員工人格權作為AI分身的特權,離職后繼續使用將構成侵權。
還有網友擔憂,如果AI分身出了差錯,本人要擔責嗎?對此,李昀鍇表示,AI目前被視為一種工具或產品,誰部署、誰使用、誰獲益,誰就承擔責任。
“如果AI分身(無論是否實際披露為AI)給客戶造成損失,企業必須承擔全部法律責任,離職員工無需擔責。自然的,AI分身后續產生的商業收益或發明創造,還是會歸企業所有。”
![]()
當人更容易被替代,AI應用邊界在哪?
Skill就像是一個標準化的容器,可以把人的專業經驗封裝固化下來,從而讓那些離職的員工,變身為“賽博打工人”。
那些在職場里積累的經驗、方法論、判斷力,很大程度就是打工人自身獨特的價值和壁壘,離職后公司就用不到了。現在這些都變成公司眼里可被蒸餾,成為可管、可用、可傳承的SOP(標準作業程序)數字資產,企業可以不再依賴特定的人。
業內有觀點認為,這可能會在接下來幾年內成為趨勢,甚至會成為企業裁員的理由。
常年關注AI技術發展的李昀鍇就認為,這本身不是新事物,過去叫知識管理,現在無非是借助了AI技術來實現。
“訓練員工的Skill,核心是拿到員工在工作業務中的隱性知識,提高AI的穩定性。這是企業降本增效的天然追求,在技術成熟的當下,這種情況會越來越多。”
但當“我的Skill 已上傳”,人在AI重塑的生產力和生產關系系統中,還有多少不可替代性?這是一場人自身生存價值的拷問。
目前,AI正在成為不少企業裁員降本的借口。當然,確實也有不少初級崗位,比如設計師、程序員等正在面臨AI的沖擊。
現在,當更多的崗位員工把具體的工作經驗寫成Skill,一定程度上讓人更容易被替代了,這可能就給了企業更大的裁員決心和勇氣,而你親手上交的Skill可能會讓你的崗位消失。
有網友出招,如果公司讓寫Skill,不要全盤托出,不要上交最核心的東西,而是要將核心的判斷邏輯和經驗保留在自己手中,打工人要有“自我保命”的意識。
面對“同事.skill”引發的恐慌,還有開發者開源了“反蒸餾Skill”,清洗核心知識,把不想交出去的內容保存下來。未來,企業和員工之間或將陷入一場蒸餾和反蒸餾的拉扯。
但也有人認為,如果僅僅是被動應付式填寫Skill,可能最終就是那個無法掌握AI的人,應該主動去定義Skill,梳理出可被替代和無法被替代的能力,從而利用AI加強和放大自己的核心競爭力。
畢竟,現在AI已經成為企業多數崗位在招聘時的硬性要求。
數據顯示,在今年以來國內大廠發布的上萬條春招中,近一半崗位都有AI要求,不僅僅是技術、產品,運營、設計等崗位也要求會AI優先,如要具備編寫復雜的Prompt/Skill的能力。
這背后是企業對人的重新定價,是職場權力結構的洗牌。李昀鍇認為,隨著這一技術趨勢的推進,未來可能會出現更多涉及隱性知識的勞動糾紛。
比如,企業在裁員前,強制要求員工將所有經驗寫成Skill或梳理成數據集,訓練好AI后再將其解雇,美其名曰“業務交接”,這會引發勞動爭議。當員工離職時,要求企業刪除HR系統里的信息,還要從AI模型的參數中剔除自己的個人向數據,這也會產生爭議。
在這個人人都可能被AI蒸餾煉化的時代,每個人都需要去尋找和確認自身不可被替代、無法被復制的部分。同時,我們或許也要反思,AI的應用邊界到底該如何界定。
“目前國內法律規定的AI應用邊界主要是尊重知識產權、不得侵害他人肖像權、名譽權和個人隱私等,還沒有落實到特殊的應用場景。現在社會公眾擔憂AI和機器人可以替代大部分腦力和體力勞動,如何應對,全球立法者都沒有答案。”
李昀鍇預測,未來法律可能做出進一步規定。如果企業利用員工的特定數據訓練高價值AI,應該獲得許可支付額外補償,同時應禁止企業未經單獨且有償的授權,去復刻員工的人格化AI,從而維護人的價值尊嚴和社會公平。
![]()
![]()
運營編輯 |曹倩審核|孟莎莎
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.