近兩年,AI迎來井噴式的發展,熊貓願把這稱作“第一次科技革命”。隨着大模型和 AI agent 的不斷成熟,常常讓人不禁感嘆:原來 AI 已經能做到這種程度了!
即便 AI 已經發展到如此“逆天”的程度,熊貓發現普通人的使用場景仍然侷限在對話和生圖這兩類。進階操作很少有人會,不會設置工作流,不會配置智能體,甚至連大模型有不同類別這件事都不清楚。
本期內容會從AI大模型的介紹、獲取以及使用進行介紹,2025小白AI入門指南,現在開始!
AI大模型的種類
在獲取並使用大模型之前,首先要弄清市面上有哪些類型的模型,以及它們各自能做什麼。
核心:語言模型
日常使用最多的是 LLM(大語言模型),也常被稱爲“語言模型”。比較知名的有 GPT 系列 —— 可以說推動大衆進入 AI 時代的就是 GPT-3.5。在國內,比較出名的代表有千問和 DeepSeek。
這類模型通常指用於處理人類語言文本的模型,主要功能包括文本對話、寫作、翻譯、邏輯推理和情感分析等與文本相關的任務。
語言模型可分爲基座模型和指令模型。基座模型——顧名思義,是所有模型的基礎,通常通過海量數據預訓練,擅長對輸入文本進行“續寫”。舉個例子,如果輸入“熊貓是不是貓?”,基座模型更可能沿着文本繼續生成下一個句子,例如“蝸牛是不是牛?”。它對知識有一定掌握,但不具備按人類指令執行特定任務的能力。
指令模型是在基座模型的基礎上,通過人工反饋(如人類評估和指令示例)進行強化學習或微調而成。這類模型能理解並執行人類指令,支持對話式交互。因此,目前常見的 GPT、DeepSeek 和千問等產品多數屬於指令模型或在其基礎上進行了指令化調整。
數據:向量模型
這類模型對普通用戶而言用得較少,主要用於需要檢索的場景,如知識庫、相似度搜索等。它們通常不直接生成文字或圖片,而是把文字或圖片等信息編碼成一串數字數組——也就是向量。這個向量相當於該信息的“身份證”或“座標”,用於表示和比較內容的語義或特徵。

向量模型會把信息編碼爲向量,進而在一個巨大的多維座標空間中表示這些信息。語義相近的詞或內容在空間中的位置也會相近,語義相反或無關的則會相距較遠。

向量模型目前最常見的應用是 RAG(檢索增強生成)。一些 NAS 的相冊也提供檢索功能,但那些實現多依賴傳統數據庫索引,而非向量檢索。就我所知,使用向量模型進行精確檢索計算的廠商中,目前只有威聯通和極空間在實踐這一方案。
眼睛:視覺模型
視覺模型其實並不是單純的作圖這麼簡單,視覺模型作爲大類目,再往下細分可以分爲兩個大類,分別是生成和理解。

很多人以爲生成類模型就是直接“按提示畫圖”,但圖像生成的過程實際上是逆向的。當前主流的生成方法依賴擴散模型 (Diffusion):訓練階段把一張清晰圖片不斷加噪,直到變成類似雪花屏的滿屏噪點;生成階段則從滿屏噪點開始,按用戶輸入的條件逐步去噪,最終復原出清晰的圖像。

視覺理解顧名思義,是對已有圖片進行分析和理解,常見場景包括圖像識別、OCR、目標檢測、圖像分類等。實現這些功能的主流方法主要有 ViT(Vision Transformer)和 CNN。常見做法是把圖像切分成若干小塊(patch 或 receptive field),分別對每個小塊提取信息或特徵,再將這些局部特徵彙總、融合以完成最終的判定或理解。
目前視覺模型種類繁多,既有近期走紅的 Nano Banana Pro,也有老牌的 Midjourney、DALL·E 3,以及廣泛使用的開源項目 Stable Diffusion。但總體來看,國內在視覺模型的研發和生態建設上,與國外相比仍存在一定差距。
全能:多模態模型
多模態顧名思義,是把視覺模型的“眼睛”和語言模型的“大腦”結合在一起,從而具備視覺問答、情感交互、跨模態檢索等能力,也是目前大模型的發展方向。

多模態的發展早期,通常採取將視覺模型和語言模型“強行拼接”的做法,通過後續訓練讓“大腦”學會理解“眼睛”傳來的信息。隨着技術演進,現在的多模態模型更多是在設計階段就原生支持文本、音頻、圖片等多類數據的聯合理解與處理,而不是簡單地把單模態模塊堆疊在一起。
多模態領域較爲出名的代表包括 GPT‑4o 和 Gemini 1.5 Pro。多模態模型現在算是應用最廣的模型類型之一——例如手機裏的語音助手(如小愛、小布、小V)很多都基於多模態技術,實現了語音、圖像與文本的聯合理解與交互。
補充:全能化趨勢
除了上述的模型,還有一些日常普通用戶用的更少或者更爲專業的模型,其中主要就是視頻生成模型、音頻語音模型以及專業模型等等。
視頻生成模型是目前技術難度最高的模型之一,對算力要求極高。它通常在擴散模型的基礎上引入 Transformer 結構,用以生成連續且邏輯自洽的幀序列,隨後再把這些時間幀按順序拼接,就能得到完整的視頻。

這類模型最具代表性的就是Sora與國內比較出名的可靈。
音頻語音模型其實用的並不少,比較出名的案例就是“AI歌手”孫燕姿。然而,即便音頻模型已經相當成熟,調音與修音仍需要人工參與,否則即使是未接觸過 AI 的普通聽衆,也大都能察覺到明顯的失真感。
專業模型其實就是針對垂直領域特殊訓練的模型,通用大模型雖然通用性強,但“什麼都懂一點”的特性往往只能達到“略懂”的水平。爲滿足專業場景的高精度需求,才催生了這類專用模型。常見類型包括代碼模型和各類科學模型(如生物、氣象、數學等)。
如何獲取大模型
通過以上,我相信你已經大概知道了大模型的種類以及使用場景,那麼如何獲取我們想要的模型呢?
官方渠道
先從官方渠道說起。除去少數需要付費或有使用限額的模型(例如近期走紅的 Nano Banana Pro、GPT5.1、可靈等),大多數模型在官網上都可以直接免費使用,不過通常僅支持網頁版或官方 APP。對普通用戶而言,這類使用方式已基本滿足日常需求。

如果你想通過 API 調用大模型,很多平臺其實是提供了可觀的免費額度的。例如阿里的通義千問可以在阿里百鍊控制檯領取,抖音的“豆包”可以在火山方舟引擎控制檯領取。通常這類額度只發放一次,但數量往往從幾百到數千萬 Token 不等。用於文本類任務的話,對普通用戶基本足夠。

這裏推薦一下美團的longchat模型(非廣),雖說是稀釋後的模型,但longchat也有通用模型和深度思考模型兩種,同時官方文檔看似沒有更新,但實測是支持多模態的。

當然,最重要的是美團的longchat目前對於個人用戶每天有500萬的Toekn(申請之後),沒錯!是每天500萬的Toekn,對於個人用戶來說這個量非常大了,完全足夠常規的文本和視覺分析處理,主打一個免費量大。

第三方渠道—付費向
如果你有大量其他模型使用需求,例如更高質量的視覺分析、圖形生成等等,那麼大概率就需要付費來使用,你可以選擇用官方的付費服務,但大部分情況下高質量的模型大量使用費用其實並不低,亦或者選擇折扣的第三方渠道。

通常來說這類第三方網站的token會是官網的3-6折,根據模型的熱度和質量而定。在計費方式上會有按次和按量兩種方式,一般來說生成類模型熊貓建議是按次,文本或向量這類模型建議按Toekns來計算。
關於網址的獲取其實途徑非常多,百度搜索大模型第三方API站點、github中直接搜索AI內容,贊助廣告中、linux.do論壇佬友們的分享等等,這些都是獲取的途徑,廢了避免廣告嫌疑,熊貓就不做推薦了,可以自行搜索。

第三方渠道—免費向
這時候又有小夥伴會問,那麼就沒有完全免費的路子嘛?那當然也有,不過免費往往也會帶來一些問題,例如站點可能時不時就會跑路、不支持API併發、熱門付費模型沒有等等。

這一類站點的獲取關鍵詞爲公益站,儘可能用谷歌去搜索,當然一樣的github和linux.do中也會有很多推薦,但基本上是沒有熱門付費模型或高質量生成類模型,比如近期大熱的Nano Banana Pro。

一般來說公益站會限制用戶的API併發或二次分發,大部分公益站都是不開放註冊的,只會在特定的時間開放註冊,類似於PT站的操作,在額度方面大概率也是簽到、註冊、邀請等等來獲取額度。

大部分情況下注冊一般就有20-100的額度,這裏指的是美元,然後每天簽到大概也有5-10左右,基本上也是完全夠用了。
自給自足—逆向
最後一種則是逆向工程,熊貓這裏並不推薦這種方式,關於如何使用逆向,這裏沒辦法做過多的介紹,可以自行github搜索相關項目。
逆向之後就不受額度、註冊等限制了,但往往也伴隨不穩定性以及模型使用的限制,例如不能進行圖像生成、語音識別等等,這就和逆向工程的項目相關了。
如何使用大模型
最後說說大模型的實際使用。正如前面提到的,普通用戶最常用的功能是對話、搜索和生圖。要想實現更精準的圖像生成或更深度的對話,就需要引入“智能體”概念——本質上就是對模型進行預設與流程化配置。

對於文本類項目,網上其實已經有非常多的提示詞了,或者你可以直接讓AI幫你生成相關需求的提示詞,這裏推薦熊貓之前介紹過的提示詞優化器,支持直接使用以及自部署:Prompt Optimizer。

除此之外大部分的應用或者模型官網都內置一些智能體,熟練合理的運用智能體很多時候能提高不少的工作效率。

而對於圖形生成,也有非常多的項目和網站會收集一些預設詞,這裏熊貓主推https://opennana.com/。該網站收錄了一共700多種生圖案例,且支持中英文雙語提示詞。

寫在最後
如今,AI的發展趨勢非常之猛,作爲普通人的我們並不能改變什麼,前兩天熊貓翻招聘軟件甚至看到一些公司已經開始將熟練使用AI作爲招聘要求了。
技術的發展並不會取代人,但不會新技術的人一定會被其他人取代。
以上便是本次分享的全部內容了,如果你覺得還算有趣或者對你有所幫助,不妨點贊收藏,最後也希望能得到你的關注,咱們下期見!

更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com
