<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      20個AI概念被說爛了,但真懂的人不到3%

      0
      分享至

      Medium上有篇技術文章最近被開發者圈轉瘋了——不是因為它講了什么新東西,而是它把20個被說爛的概念重新講了一遍。作者Shankar Angadi的開場白很扎心:「大多數開發者能把'Transformer架構''微調'掛在嘴邊,但真讓他們說清楚這些東西怎么工作、為什么被發明、怎么跟AI棧的其他部分勾連,就集體沉默了?!?/b>

      這話聽著像罵人,但數據不會撒謊。Stack Overflow 2024年調研顯示,自稱"熟悉機器學習"的開發者中,能正確解釋反向傳播原理的不到35%。Angadi的文章瞄準的就是這個斷層——不是給術語下定義,而是講清楚"這些東西到底意味著什么"。

      機器學習:從"寫規則"到"喂例子"

      傳統軟件的邏輯是開發者寫規則,計算機執行。用戶輸入X,輸出Y。機器學習把這個流程整個顛倒了——你給系統幾千組輸入輸出的例子,讓它自己琢磨規則。

      Angadi用了個很產品經理的類比:「傳統編程像教小孩認貓,你寫一萬條規則:有毛、四條腿、會喵喵叫。機器學習直接扔給他一萬張貓的照片,讓他自己總結?!?/b>

      這個 inversion(反轉)是理解整個AI領域的起點。但知道這一點和能用它做決策是兩回事。很多開發者卡在中間:他們知道要"喂數據",但不知道數據質量、特征工程、模型選擇這些環節怎么互相咬合。

      文章接下來列出的19個概念,本質上都是在回答同一個問題——當機器開始"學習"之后,到底發生了什么?

      神經網絡:不是大腦,是函數逼近器

      深度學習的基礎結構。多層神經元(節點)組成的網絡,每層對輸入數據進行非線性變換,逐步提取從簡單到復雜的特征。

      Angadi特意澄清了一個流傳甚廣的誤解:「神經網絡不是模擬大腦,雖然名字這么叫。它更像一個萬能擬合器——給定足夠的層數和參數,它能逼近任何數學函數?!?/b>

      這個區別很重要。大腦是進化出來的生物器官,神經網絡是人為設計的數學工具。混淆兩者會導致錯誤的直覺——比如以為層數越多越好,或者以為"神經元"真的會像生物神經元那樣工作。

      實際工程中,網絡深度的選擇是權衡的結果。ResNet(殘差網絡,Residual Network)之所以在2015年ImageNet競賽中橫掃對手,不是因為它最深,而是因為它解決了深層網絡的梯度消失問題——讓信息能跳過某些層直接傳遞。這個"跳躍連接"的設計,比單純堆層數聰明得多。

      反向傳播:神經網絡的糾錯機制

      訓練神經網絡的核心算法。通過計算損失函數對每層參數的梯度,從輸出層反向傳播到輸入層,逐層更新權重。

      Angadi的解釋很直白:「神經網絡一開始是隨機瞎猜的。反向傳播告訴它:你猜錯了,而且我告訴你具體錯在哪一層、哪個權重該調大還是調小。」

      這個過程依賴鏈式法則——微積分里求復合函數導數的工具。1986年Rumelhart等人重新發現它的時候,神經網絡研究已經沉寂了將近二十年。算法的存在是一回事,能大規模計算是另一回事。GPU普及之后,反向傳播才真正 unleash(釋放)了深度學習的潛力。

      有個細節很多初學者忽略:反向傳播計算的是梯度方向,不是最終數值。學習率(learning rate)這個超參數決定了每一步走多遠。太大則震蕩不收斂,太小則訓練到天荒地老。調學習率的經驗,往往是區分"做過項目"和"只跑過教程"的分水嶺。

      Transformer:注意力機制的集大成者

      2017年Google論文《Attention Is All You Need》提出的架構,完全基于注意力機制(Attention Mechanism),摒棄了RNN(循環神經網絡,Recurrent Neural Network)的順序處理。

      這是近年來AI領域最重要的技術轉折。在此之前,處理序列數據(文本、語音、時間序列)的主流是RNN及其變體LSTM(長短期記憶網絡,Long Short-Term Memory)。RNN的問題在于必須逐個處理 token(詞元),無法并行計算,而且長距離依賴容易丟失。

      Transformer的核心創新是自注意力(Self-Attention):讓序列中的每個位置都能直接"看到"其他所有位置,并計算它們之間的關聯強度。「RNN像一個人逐字讀句子,必須記住前面所有內容。Transformer像一群人同時讀,還能互相打手勢交流哪些詞重要?!?/b>Angadi的類比抓住了并行化的本質。

      這個架構現在統治了NLP(自然語言處理,Natural Language Processing)和計算機視覺。GPT系列、BERT、T5、Vision Transformer——全是Transformer的變體。理解它,等于理解了當前大模型浪潮的技術根基。

      預訓練與微調:知識遷移的標準路徑

      先在大量通用數據上訓練模型學習廣泛特征(預訓練),再在特定任務的小數據集上調整(微調)。

      這是現代AI開發的默認工作流。預訓練階段消耗算力巨大——GPT-3的訓練成本估計在1200萬美元以上——但得到的模型掌握了語言的基本規律。微調階段成本低得多,只需要領域相關的標注數據。

      Angadi強調了這個分工的經濟意義:「小公司玩不起預訓練,但可以下載開源模型做微調。這是AI民主化的關鍵機制。」

      Hugging Face的崛起驗證了這個判斷。他們的模型庫讓"站在巨人肩膀上"變得像pip install一樣簡單。但便利也有代價:很多開發者只會調用API,對模型內部機制一無所知。當微調效果不佳時,往往束手無策——不知道是數據問題、超參問題,還是模型根本不適合這個任務。

      大語言模型:規模涌現的意外

      參數量達到數十億甚至萬億級別的語言模型,展現出小模型不具備的能力——上下文學習(In-Context Learning)、思維鏈(Chain-of-Thought)推理等。

      這是AI領域最反直覺的現象之一。模型大到一定程度,會出現"涌現能力"(Emergent Abilities)——不是線性提升,而是突然解鎖新技能。Google Research 2022年的論文系統記錄了這個現象:某些任務的表現曲線在特定規模點突然陡峭上升。

      但Angadi提醒讀者別被"涌現"這個詞迷惑:「這些能力本質上還是模式匹配,只是匹配的模式太復雜,看起來像推理。知道它的邊界和知道它的能力同樣重要?!?/b>

      大模型的工程挑戰也在規模中放大。推理成本、延遲、內存占用——這些在學術論文里很少討論,卻是落地時的生死線。GPT-4的API定價策略、MoE(混合專家,Mixture of Experts)架構的采用,都是成本壓力驅動的設計選擇。

      嵌入(Embeddings):語義的空間化

      將離散對象(詞、句子、圖像)映射到連續向量空間,使得語義相近的對象在空間中距離也近。

      這是連接符號主義和連接主義的關鍵技術。Word2Vec 2013年的演示震撼了NLP界:"king - man + woman ≈ queen"——向量運算捕捉到了性別和皇室的語義關系。

      Angadi指出了嵌入的實用價值:「推薦系統、語義搜索、RAG(檢索增強生成,Retrieval-Augmented Generation)——都建立在嵌入之上。它是讓AI'理解'含義的底層基礎設施。」

      嵌入的質量取決于訓練目標和數據分布。用新聞語料訓練的詞向量,放到醫療領域可能完全失效。這是"領域漂移"(Domain Shift)的一種表現。做應用時,經常需要重新訓練或微調嵌入層,而不是直接拿現成的用。

      生成式AI:從判別到創造

      不僅能分類、預測,還能生成新內容的AI系統。包括文本(GPT)、圖像(Stable Diffusion)、音頻、視頻、代碼等。

      2022年Stable Diffusion開源和ChatGPT發布,標志著生成式AI進入主流。技術內核是擴散模型(Diffusion Model)和自回歸(Autoregressive)生成,但用戶體驗的飛躍來自工程優化——RLHF(基于人類反饋的強化學習,Reinforcement Learning from Human Feedback)讓輸出更符合人類偏好,指令微調(Instruction Tuning)讓交互更自然。

      Angadi的觀察很產品經理:「生成式AI的爆發不是單一技術突破,而是模型能力、算力成本、產品形態三個曲線同時到達甜點的結果。缺任何一個,ChatGPT都不會是現在的樣子?!?/b>

      開發者需要警惕的是"生成幻覺"(Hallucination)——模型自信地輸出錯誤信息。這不是bug,是架構特性。概率模型本質上是"合理的猜測",不是"確定的真相"。RAG、事實核查、置信度校準——這些緩解策略正在形成新的工程范式。

      強化學習:從反饋中學習策略

      智能體(Agent)通過與環境交互,根據獎勵信號學習最優行為策略。

      AlphaGo擊敗李世石是強化學習的高光時刻。但圍棋是完美信息、確定性規則、獎勵明確的封閉環境。真實世界混亂得多——獎勵稀疏、延遲、甚至設計錯誤都會導致學習失敗。

      RLHF把強化學習用在大模型上,是個巧妙的嫁接。人類標注者的偏好成為獎勵信號,繞過直接定義"好回答"的困難。但Angadi指出了這個流程的脆弱性:「標注者的偏見會變成模型的偏見,標注不一致會讓模型困惑。RLHF不是魔法,是另一種形式的數據工程。」

      強化學習在游戲、機器人、資源調度領域有成熟應用,但在通用AI中的角色仍在演變。DeepMind的AlphaTensor發現矩陣乘法新算法,證明了它在科學發現中的潛力。

      向量數據庫:AI的內存

      專門存儲和檢索高維向量的數據庫系統,支持相似性搜索(Similarity Search)而非精確匹配。

      這是RAG架構的基礎設施。大模型的上下文窗口有限(即使GPT-4 Turbo的128K token也裝不下企業知識庫),向量數據庫充當外部記憶——先把文檔切分、嵌入、索引,查詢時檢索最相關的片段塞進提示詞。

      Pinecone、Weaviate、Milvus、PGVector——這個賽道在2023年融資火熱。Angadi提醒技術選型時要關注的點:「延遲、召回率、成本、托管還是自研——沒有免費午餐。有些場景用暴力搜索就夠了,上向量數據庫是過度工程。」

      嵌入模型的選擇也影響數據庫效果。同一個查詢用OpenAI的ada-002和開源的all-MiniLM-L6-v2,檢索結果可能大相徑庭。系統級優化需要端到端思考。

      MLOps:AI的工程化

      將DevOps實踐擴展到機器學習系統,涵蓋數據版本控制、模型訓練流水線、部署監控、實驗管理等。

      機器學習代碼只占生產系統的很小一部分。數據管道、特征存儲、模型注冊中心、A/B測試框架、漂移檢測——這些基礎設施決定了AI項目能否從筆記本走到生產環境。

      Angadi引用了Google 2015年的經典論文《Hidden Technical Debt in Machine Learning Systems》:「機器學習系統特別容易積累技術債,因為邊界模糊、數據依賴隱蔽、反饋回路復雜。MLOps不是可選的,是生存必需?!?/b>

      這個領域還在快速演化。LLMOps(大語言模型運維)又提出了新挑戰:提示詞版本控制、鏈式調用追蹤、長上下文成本優化。傳統MLOps工具很多不能直接套用。

      邊緣AI:把模型塞進犄角旮旯

      在終端設備(手機、傳感器、IoT設備)上運行AI推理,而非依賴云端。

      動機很直接:降低延遲、保護隱私、節省帶寬、離線可用。代價是算力受限——手機GPU和數據中心GPU差著幾個數量級。

      模型壓縮技術因此關鍵:量化(Quantization,降低數值精度)、剪枝(Pruning,刪除冗余連接)、知識蒸餾(Knowledge Distillation,讓小模型模仿大模型)。TensorFlow Lite、ONNX Runtime、Apple Core ML——這些框架在做同一件事:把訓練好的模型瘦身到能塞進終端。

      Angadi的觀察:「邊緣AI的瓶頸往往不是算法,是硬件生態。蘋果能做好是因為控制整條鏈,安卓碎片化讓優化變成噩夢?!?/b>

      這個判斷解釋了為什么端側大模型率先在iPhone上落地。Google的Gemini Nano在Pixel上的體驗,和蘋果在A17 Pro上跑7B參數模型的差距,不只是技術問題。

      聯邦學習:數據不出門的訓練

      多個參與方在不共享原始數據的前提下,協作訓練共享模型。

      隱私計算的明星技術。醫院聯合訓練疾病診斷模型,銀行聯合訓練風控模型——數據敏感無法集中,但模型可以聚合。

      技術核心是參數平均或安全聚合(Secure Aggregation)。每個參與方在本地訓練,只上傳梯度更新,服務器聚合后下發新模型。重復多輪直到收斂。

      但Angadi指出了理想與現實的差距:「聯邦學習在論文里很美好,工程里全是坑。非獨立同分布數據、通信開銷、惡意參與方、模型異構——每個都是硬骨頭?!?/b>

      Google Gboard的下一詞預測是聯邦學習的標桿應用,但大規模商業部署仍然罕見。隱私和效率的權衡,還沒有找到普適的最優解。

      可解釋AI:打開黑箱的努力

      讓AI決策過程對人類可理解的技術和方法。

      深度學習的"黑箱"特性在醫療、金融、司法等高風險領域成為 adoption(采用)障礙。監管機構要求"解釋權",用戶需要"信任理由"。

      技術路線分兩類:內在可解釋(用決策樹、線性模型等透明結構)和事后解釋(用LIME、SHAP等工具分析黑箱模型的局部行為)。

      Angadi的態度很務實:「完全可解釋和完全準確往往互斥。現實選擇是:對關鍵決策用簡單模型,對復雜任務用黑箱但加解釋層。沒有銀彈?!?/b>

      大語言模型讓這個問題更棘手。Transformer的注意力權重可以可視化,但"模型在看哪里"不等于"模型在想什么"。思維鏈提示(Chain-of-Thought Prompting)讓模型"說出"推理過程,但研究表明這些解釋可能是事后編造,而非真實因果。

      多模態AI:打破感官隔離

      同時處理和理解多種數據類型(文本、圖像、音頻、視頻)的AI系統。

      人類感知本身就是多模態的。AI長期是"單感官"專家:NLP模型不懂圖像,CV(計算機視覺,Computer Vision)模型不懂文字。CLIP、DALL-E、GPT-4V正在打破這個邊界。

      統一架構是關鍵。CLIP用對比學習讓圖像和文本共享嵌入空間;GPT-4V把圖像 token 化后塞進Transformer;Google的Gemini原生支持多模態輸入輸出。

      Angadi的預測:「純文本模型會邊緣化,就像純功能機。多模態不是錦上添花,是下一代AI的默認配置。」

      開發者需要重新思考交互設計。語音+視覺+觸覺的融合,會催生現在還想象不到的應用形態。但多模態也放大了風險:深度偽造(Deepfake)更難檢測,偏見在模態間傳導更隱蔽。

      AI倫理與安全:技術債的社會版本

      確保AI系統公平、透明、可控、對人類有益的框架和實踐。

      這不是哲學討論,是產品約束。歐盟AI法案、美國算法問責、中國深度合成規定——合規成本正在重塑行業格局。

      技術層面:偏見檢測、公平性指標、紅隊測試(Red Teaming)、對抗訓練(Adversarial Training)。組織層面:倫理審查委員會、影響評估流程、事故響應機制。

      Angadi的提醒很直接:「AI倫理不是公關部門的事,是架構設計的事。事后打補丁比內置約束貴100倍?!?/b>

      OpenAI的Superalignment團隊解散爭議、Google Gemini圖像生成"過度矯正"翻車——這些事件顯示,即使是頭部實驗室也在摸索平衡。小公司更沒有犯錯的資本。

      智能體(Agent):從工具到行動者

      能夠感知環境、制定目標、執行動作、使用工具的自主AI系統。

      2023-2024年的熱門概念。AutoGPT、BabyAGI、LangChain的Agent模塊——都在探索同一個方向:讓大模型不僅能說話,還能"做事"。

      核心組件:規劃(Planning,把目標分解為步驟)、記憶(短期工作記憶+長期向量存儲)、工具使用(調用API、執行代碼、操作界面)。

      但Angadi潑了冷水:「現在的Agent演示很炫,可靠性很差。大模型的幻覺會級聯放大,一步錯步步錯。真正生產級的自主系統,還需要大量工程打磨?!?/b>

      這個判斷和業界觀察一致。Devin(AI軟件工程師)的演示引發轟動,但獨立測試顯示其完成復雜任務的成功率遠低于宣傳。Agent是方向,但路徑比預期曲折。

      RAG:給大模型開卷考試

      檢索增強生成(Retrieval-Augmented Generation),讓大模型在生成回答前,先從外部知識庫檢索相關信息。

      解決大模型"幻覺"和"知識截止"問題的標準方案。不是讓模型記住所有知識,而是需要時現查。

      架構很清晰:查詢嵌入→向量檢索→相關片段塞進提示詞→大模型生成回答。但魔鬼在細節:文檔怎么切分、嵌入模型怎么選、檢索結果怎么排序、提示詞怎么組織——每個環節都影響最終效果。

      Angadi的經驗之談:

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      吉林省紀委監委通報:黃正杰被查

      吉林省紀委監委通報:黃正杰被查

      吉刻新聞
      2026-04-07 18:35:59
      比艷照門更轟動,曾經的臺灣第一女主播璩美鳳

      比艷照門更轟動,曾經的臺灣第一女主播璩美鳳

      霹靂炮
      2026-02-25 21:01:00
      特斯拉即將發布一款重磅車型,太猛了!

      特斯拉即將發布一款重磅車型,太猛了!

      花果科技
      2026-04-05 23:01:14
      一輛6年邁巴赫在邯鄲拍出49萬,11人爭搶!背后是面子還是剛需?

      一輛6年邁巴赫在邯鄲拍出49萬,11人爭搶!背后是面子還是剛需?

      河北關注
      2026-04-07 19:13:51
      民進黨鼓吹開戰?鄭麗文抵達上海!“三個不要”直擊賴清德要害

      民進黨鼓吹開戰?鄭麗文抵達上海!“三個不要”直擊賴清德要害

      薛小榮
      2026-04-07 17:11:35
      一鋤頭發現一窩!2025年青島大叔挖水溝竄出一窩,專家:非劇毒

      一鋤頭發現一窩!2025年青島大叔挖水溝竄出一窩,專家:非劇毒

      萬象硬核本尊
      2026-04-05 19:02:32
      嚴查電動車接送小孩!接娃怎么辦?國家新規定:把方便留給群眾!

      嚴查電動車接送小孩!接娃怎么辦?國家新規定:把方便留給群眾!

      朝子亥
      2026-04-07 16:15:03
      男人的生理需求能有多難忍?網友:我對我老公只有動物本能

      男人的生理需求能有多難忍?網友:我對我老公只有動物本能

      帶你感受人間冷暖
      2026-02-07 03:58:56
      超越比亞迪閃充 吉利900V神盾金磚電池實測8分42秒充至97%

      超越比亞迪閃充 吉利900V神盾金磚電池實測8分42秒充至97%

      快科技
      2026-04-07 16:19:06
      伊朗對美以發動第99波打擊

      伊朗對美以發動第99波打擊

      界面新聞
      2026-04-07 18:30:16
      娃哈哈百億遺產迎來大反轉!宗馥莉攜弟妹掃墓,真不斗了?

      娃哈哈百億遺產迎來大反轉!宗馥莉攜弟妹掃墓,真不斗了?

      雷科技
      2026-04-07 16:03:37
      長汀車輛墜河5人遇難,發生了什么?

      長汀車輛墜河5人遇難,發生了什么?

      中國新聞周刊
      2026-04-07 15:56:54
      人類首次拍到月球東方海!隱藏背面38億年,宇航員:完全超乎想象

      人類首次拍到月球東方海!隱藏背面38億年,宇航員:完全超乎想象

      基斯默默
      2026-04-06 21:08:53
      15年后,全網封神的“犀利哥”程國榮,早已死在了那場流量狂歡里

      15年后,全網封神的“犀利哥”程國榮,早已死在了那場流量狂歡里

      杰絲聊古今
      2026-04-05 18:52:02
      攤牌了?勇士潛在3換1交易,巴特勒或成犧牲品,庫卡欲聯手沖冠

      攤牌了?勇士潛在3換1交易,巴特勒或成犧牲品,庫卡欲聯手沖冠

      毒舌NBA
      2026-04-07 09:07:23
      新冠后遺癥對人體的最大影響,很多人深受其害,有些人還不自知

      新冠后遺癥對人體的最大影響,很多人深受其害,有些人還不自知

      呼吸科大夫胡洋
      2026-02-22 11:39:12
      新空腹血糖標準已調整,不再6.1mmol/L,糖前期者,早知早管控

      新空腹血糖標準已調整,不再6.1mmol/L,糖前期者,早知早管控

      觀星賞月
      2026-04-07 16:49:02
      上海二胎家庭真相:不是多雙筷子,是全家資源被掏空的一場硬仗

      上海二胎家庭真相:不是多雙筷子,是全家資源被掏空的一場硬仗

      復轉這些年
      2026-04-07 12:25:34
      一場戰爭徹底把中國打醒!美軍作戰最毒的是什么?中國用30年看清

      一場戰爭徹底把中國打醒!美軍作戰最毒的是什么?中國用30年看清

      嫹筆牂牂
      2026-04-07 14:51:29
      明天傍晚北京將迎雨水,后天氣溫大降

      明天傍晚北京將迎雨水,后天氣溫大降

      北青網-北京青年報
      2026-04-07 12:41:12
      2026-04-07 20:20:49
      野生運營
      野生運營
      懂點產品,懂點AI,正在努力給平淡日子搞點新花樣。
      867文章數 10關注度
      往期回顧 全部

      科技要聞

      滿嘴謊言!OpenAI奧特曼黑料大起底

      頭條要聞

      英媒:伊朗最高領袖病重昏迷 無法參與任何國家決策

      頭條要聞

      英媒:伊朗最高領袖病重昏迷 無法參與任何國家決策

      體育要聞

      官宣簽約“AI球員”,這支球隊被罵慘了...

      娛樂要聞

      女首富陳麗華離世 被曝生前已分好遺產

      財經要聞

      10萬億財政轉移支付,被誰拿走了?

      汽車要聞

      不止是大 極狐首款MPV問道V9靜態體驗

      態度原創

      藝術
      親子
      手機
      教育
      公開課

      藝術要聞

      美麗風光看不盡

      親子要聞

      別讓過度檢查,毀了你的備孕路!

      手機要聞

      華為暢享90 Pro Max升級鴻蒙6.0.0.138 SP23,新增HiCar互聯

      教育要聞

      高校官宣:教師,沒有“非升即走”!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版