Photoshop 2026 AI 完整指南:8 個改變設計工作流的功能 + 4 個被低估的工作流改善

Adobe 官方公開的 AI Assistant 範例圖,展示 v27 透過 prompt 直接編輯複雜場景的能力。圖片來源:Adobe Blog
2025 年 10 月 Adobe MAX 開始,Adobe 在 12 個月內推出 4 次重大更新,把 Photoshop 從「圖層工具軟體」徹底改寫成「AI 共作平台」。本文帶你看完整時間軸、8 個值得設計師深度掌握的 AI 功能、4 個被低估的工作流改善,所有功能介紹皆以 Adobe 官方文件為準。
📋 關於本文內容的使用說明
所有功能事實皆以 Adobe 官方為準
✅ 已校驗的官方事實:8 個 AI 功能介紹、4 個工作流改善、Multi-model 模型比較、AI Assistant 現況、版本時間軸 — 全部以 Adobe 官方 helpx 文件、Adobe Blog 公告、Adobe Community 公告、Adobe Research 為準。資料校驗時間:2026.05.01。所有圖片影片皆來自 Adobe 官方公開素材。
本文不提供「絕對標準參數」,所有設計師重點是經驗起點建議,實務操作請依素材光線、品牌調性、輸出用途彈性微調。
本文所依據的版本
Photoshop 27.6(2026 年 4 月 28 日釋出,最新穩定版)。生成式 AI 功能會消耗 Generative Credits,額度依訂閱方案而定。Adobe 後續更新可能會調整功能位置或數值,請以本文發布日期為時間參考點。
CHAPTER 01 / TIMELINE
Photoshop 2026 的四次大進化
想理解 Photoshop 2026 為什麼這麼重要,要先看 Adobe 在 12 個月內怎麼推進這套軟體。每一次小數點後的版本升級,都帶進新的 AI 模組:
v27.0
2025.10.28
Adobe MAX 全面 AI 化發表
Harmonize 合成自動匹配光線色彩、Generative Upscale 整合 Topaz Gigapixel、Multi-model 支援(Firefly + Google Gemini Nano Banana + Black Forest Labs Flux)、Select Subject 與 Remove Background 重大強化、Color & Vibrance 加入 Temperature/Tint。
v27.3
2026.01.27
非破壞性編輯三大新調整層
Clarity / Dehaze / Grain 三個 adjustment layer 從 Camera Raw 搬進 Photoshop,可遮罩、可重新編輯。Generative Fill / Expand / Remove Tool 升級到 Firefly Fill & Expand 新模型,2K 輸出解析度。Reference Image for Generative Fill 正式版,可保留參考物件的形狀與比例。
v27.5
2026.04.01
Firefly Boards 雙向整合
Photoshop 雲端文件可直接在 Firefly Boards 開啟,做 AI 變體探索後送回 Photoshop 精修。設計概念前期最有用 — 在 Boards 上快速跑十幾種方向,定案後再進 Photoshop 做細節。
v27.6
2026.04.28 ★
最新版本:Rotate Object + Reflection Removal + Firefly Image 5
Rotate Object 把 2D 圖層變 3D 旋轉、Reflection Removal 去除玻璃反光並分層保留、Find Distractions 加強版可一鍵清電線/路人/雜物、Layer Cleanup 智慧整理圖層、Firefly Image 5 取代舊 Firefly 3、新增 Gemini 3.1(Nano Banana 2)夥伴模型、Actions 面板改版支援自然語言搜尋。
這四次更新合起來看,你會發現 Adobe 的策略很清楚:不是把 Photoshop 改成「AI 軟體」,而是把 AI 工具一個一個塞進你既有的工作流裡。圖層、選取、調整層 — 這些核心概念都還在,只是每個流程節點都多了一個 AI 加速器。
CHAPTER 02 / DEEP DIVE
8 個改變設計工作流的 AI 功能
下面這 8 個功能是我從整個 v27 版本裡挑出 — 不是 Adobe 公關稿說很重要的,是我自己用過、覺得真的會改變設計師日常的。
FEATURE 01 / GENERATIVE FILL
Generative Fill(Firefly Image 5)

▲ Adobe 官方展示 Firefly Fill & Expand 新模型的光線匹配能力。來源:Adobe Blog
Photoshop AI 工作流的核心。選取一個區域、輸入 prompt,AI 會生成符合周邊光線的內容填入。v27.6 的 Firefly Image 5 比舊版 Firefly 3 在「指令理解力」與「光線匹配」上有明顯提升,生成的內容看起來更像「拍出來的」而不是「修出來的」。
💡 設計師重點:輸出解析度提升到 2K(2048px),可以直接用在多數網路素材。但仍會消耗 Generative Credits,大量使用前先看訂閱方案的額度。
FEATURE 02 / GENERATIVE EXPAND
Generative Expand(畫面外延伸)
用裁切工具拉大畫布外緣,Photoshop 自動「腦補」新增區域的內容。對於需要把同一張照片重新構圖成多種比例(IG 1:1、Story 9:16、Banner 16:9)的設計師超級實用。
💡 設計師重點:同樣升級到 Firefly Fill & Expand 新模型。對於人像、建築、自然場景效果好;對於有複雜文字、邏輯結構的圖(如商品包裝)還是要手動修。
FEATURE 03 / REMOVE TOOL + FIND DISTRACTIONS
Remove Tool 強化版 + Find Distractions

BEFORE

AFTER
▲ Adobe 官方 AI Assistant 範例:單一 prompt 即可完成複雜的背景修整。來源:Adobe Blog
v27.6 的 Find Distractions 模式可以一鍵偵測並移除人、電線、背景雜物等常見的「干擾元素」。可以先預覽 AI 標記出的所有元素,自己加減選擇後再套用。對外景拍攝、街拍、產品照處理是救星級別的工具。
💡 設計師重點:使用方法 — 選取 Remove Tool → 點上方「Find Distractions」→ 點 General Distractions 旁的 Find → 用 Alt/Option 取消不想移除的、用筆刷加選想移除的 → Enter 套用。
FEATURE 04 / HARMONIZE
Harmonize(合成救星)
合成最痛的問題:把 A 場景的物件貼到 B 場景,光線方向不對、色溫不對、陰影不對,看起來就像 PS 痕跡。Harmonize 自動匹配光線、色溫、陰影方向,讓貼上去的物件「看起來真的在那個場景裡」。
💡 設計師重點:v27.0 推出。雖然會稍微降低細節銳利度(因為要重新 render 光影),但合成省下的時間遠大於這個代價。這是 v27 整個週期最被低估的功能,接案做合成的人一定要學。
📚 Adobe Research:Harmonize 背後的技術原理 — 想了解光影匹配的演算法細節可以看官方研究文章
FEATURE 05 / ROTATE OBJECT ★
Rotate Object(2D 圖變 3D 旋轉)
▲ PhotoshopCAFE 官方教學:Rotate Object 把任何 2D 物件放進 3D 場景的完整實作流程
v27.6 全新功能。把 2D 圖層轉成「可旋轉的 3D 物件」,在畫布上即時調整角度、傾斜、轉向,確認後 AI 重新 render 為高解析。Adobe Research 形容這是「Photoshop、3D&I、Firefly 三個團隊多年研究的合作成果」 — 用低解析的 Gaussian splat 3D 模型先預覽,確認後 upscale 回原解析度。
💡 設計師重點:適合「我有商品照但角度不對」、「合成時主體角度跟背景透視不一致」的場景。位置在 Edit > Transform 或 Contextual Task Bar 的 Transform。會消耗 Generative Credits(beta 期約 20 credits/次,正式版實際數字以你的訂閱方案為準)。
⚠️ 注意:旋轉後常需要再用 Harmonize 調光影才能融入背景 — 兩個工具搭配使用最有效。
📚 Adobe Research 官方頁面:Rotate Object 完整技術解析 — 含 Adobe 內部 demo 影片(Rob de Winter 製作)
FEATURE 06 / REFLECTION REMOVAL ★
Reflection Removal(玻璃反光去除)
v27.6 全新功能。從玻璃櫥窗、車窗、水面拍的照片,反光通常很難手動清。新功能直接生成「乾淨版」與「反光版」兩個分離圖層 — 你可以保留一點反光氛圍(調圖層透明度),或完全移除。
💡 設計師重點:位置在 Edit > Reflection Removal。Standard 品質速度跟結果都不錯。對於透過商店櫥窗拍的街拍、水族館玻璃、車內拍車外景 — 這個工具直接省下 10–30 分鐘的 cloning 時間。
FEATURE 07 / GENERATIVE UPSCALE
Generative Upscale(整合 Topaz Gigapixel)
v27.0 推出。低解析素材放大時,傳統演算法會糊掉。Generative Upscale 用 AI 重生內容,可以選不同模型 — Adobe Firefly、Topaz Gigapixel(細節保留)、Topaz Bloom(增加細節)。最大可放到約 5K 解析度。
💡 設計師重點:位置在 Image > Generative Upscale。對於老照片修復、客戶提供低解素材、要做大尺寸印刷的場景超實用。Topaz Gigapixel 通常在 Photoshop 內用比另外買 Topaz 訂閱划算 — 但會消耗較多 Generative Credits。
FEATURE 08 / REFERENCE IMAGE
Reference Image for Generative Fill

▲ Adobe 官方 Reference Image 示範:同一個物件保留外觀、放進不同場景。來源:Adobe Blog
v27.3 正式版。Generative Fill 時可以上傳「參考圖」,AI 會保留參考物件的形狀、比例、風格生成。v27.6 進一步支援多張參考圖,搭配 Flux 或 Gemini 模型可以同時控制構圖、風格、輸出細節。
💡 設計師重點:對於品牌設計、商品攝影合成最關鍵 — 「我要把這個特定產品放進這個新場景」、「我要這個角色保持一致出現在多張圖裡」這類需求,過去要請插畫師,現在 Reference Image 就能搞定。注意:Adobe 限制了「人臉/人物」的 Reference Image 用法,以符合負責任 AI 規範。
CHAPTER 03 / UNDERRATED
4 個被低估的工作流改善
這些不是「明星級」AI 功能,但每天都在用 Photoshop 的人最有感,其實是 v27 週期最值得學的東西。
01
Clarity / Dehaze / Grain 三個 Adjustment Layer

▲ Adobe 官方 Clarity & Dehaze 調整層示範。來源:Adobe Blog
過去這三個只能在 Camera Raw 用,現在進到 Photoshop 變成可遮罩、可重新編輯的 adjustment layer。最大價值:對人像可以只給背景加 Dehaze 不影響主體;AI 生成的圖加 Grain 可以模糊「過於平滑」的塑膠感。位置在 Layer > New Adjustment Layer。
02
Select Subject / Remove Background 強化
毛髮、細枝、半透明邊緣這些過去最難選的 — v27 的 on-device 模型品質追上了 cloud 模型,代表你不用上傳到雲端就能拿到最高品質的選取。Adobe 自己估算:過去要 30–45 分鐘的 manual masking,現在 2–3 分鐘搞定。
03
Layer Cleanup(智慧整理圖層)
v27.6 全新。AI 自動偵測並移除空圖層,並依內容智慧命名(例如把「Layer 23」自動改成「Person on left」)。對於檔案常常 50+ 圖層的設計師,這個比任何 AI 生成工具都更實用。
04
Actions Panel 改版(自然語言搜尋)
v27.6 改版的 Actions 面板:可以用自然語言搜尋 actions、依分類瀏覽、hover 預覽效果。對於有累積大量自製 actions 的設計師,翻找變得人性化。結合錄製動作做批次處理,效率提升非常明顯。
CHAPTER 04 / MULTI-MODEL
三種 AI 模型怎麼選
v27 開始,Photoshop 不再只用 Adobe Firefly。Generative Fill 的對話框可以下拉選擇不同模型,各有強項:
設計師接案要記住:客戶案子優先用 Firefly(有 IP 保證),自己探索構想可以用 Gemini 或 Flux。Adobe Firefly 模型自帶 Content Credentials(可追溯 AI 生成記錄),這在企業客戶越來越重視 AI 倫理的環境下是重要差異。
▲ PhotoshopCAFE Colin Smith 完整解析 Firefly Fill & Expand 新模型 vs 舊 Image 3 的實測差異
「在 Photoshop,你不會看到『點這裡產生作品』。你看到的是工具。創作者是你 — 只是現在工具裡有 AI。」
— Stephen Nielson,Photoshop 產品管理資深總監
CHAPTER 05 / AI ASSISTANT
對話式 AI Assistant 的現況
▲ Adobe 官方 AI Assistant + AI Markup 完整 demo:在 web 版用對話與標記直接編輯。來源:Adobe Blog 2026/03/10
很多人在問:「Photoshop 什麼時候可以像 ChatGPT 一樣用對話編輯?」 — 答案是「已經可以,但只在 web 跟 mobile」。
2026 年 3 月,Adobe 在 Photoshop web 跟 mobile 推出 AI Assistant 公開測試版。可以用「移除左邊那個人」、「把背景改成黃昏」這種自然語言指令,系統就會執行對應編輯。Mobile 版甚至支援語音輸入。
Web 版額外有「AI Markup」功能 — 可以直接在圖上畫範圍 + 加 prompt,精準控制 AI 在哪裡做什麼變更(上面影片 0:30 之後有完整 demo)。
但 desktop 版還沒上線。Adobe 表示 desktop 整合「正在規劃中」,但沒公告具體時間。
AFTERWORD
Photoshop 設計師的競爭結構正在改寫
把 Photoshop 2026 的所有 AI 功能擺一起看,我看到一個訊號:Photoshop 不再是「軟體」,而是「設計判斷力的擴音器」。
過去設計師的競爭力是「我比你會用工具」 — 你會圖層遮色片、我會曲線調整、他會頻率分離修圖。當 Harmonize 一鍵搞定光影匹配、Find Distractions 一鍵清完雜物、Generative Upscale 一鍵放大照片,「會用工具」這個護城河被填平了。
新的護城河是什麼?是「能不能精準描述要的結果」。Reference Image 要丟什麼參考圖?Generative Fill 要寫什麼 prompt?Multi-model 該選 Firefly 還是 Gemini 還是 Flux?哪個工具該手動、哪個該自動?
這些選擇,會把設計師分成兩種:「會給 AI 指令的人」跟「期待 AI 自己想出來的人」。前者每天都在進步、報價結構在調整、能接的案子越來越大;後者抱怨「AI 出來的圖太醜」,然後回去手動拉鋼筆。
「會用 Photoshop」不再是設計師的競爭力。
「會指揮 Photoshop」才是。
RESOURCES
延伸閱讀(已校驗官方來源)
Adobe 官方:Photoshop desktop 最新功能完整文件
每個 AI 工具的官方使用指南、技術細節
Adobe Blog:v27.3 Clarity/Dehaze/Grain 三大調整層公告
2026 年 1 月官方更新文(英文)
Adobe Blog:AI Assistant 公開測試版發表
含 web 版 AI Markup 完整 demo 影片
Adobe Research:Rotate Object 技術深度解析
含 Adobe 官方 demo 影片(Rob de Winter 製作)
Rotate Object、Reflection Removal、Find Distractions 詳細介紹
Firefly Image 5 / Gemini 3.1 / Flux 各模型適用場景
第一手 Adobe 官方教學、新功能 demo、產品專家解說



