您好,我是劉俊宏,
目前是
創辦人兼總經理
menu

天下雜誌》 請ChatGPT答題、做圖,等於運轉微波爐3小時——AI到底有多衝擊能源與環境?

和聊天機器人用文字訊息對話一次,大約會產生多少碳排?每一次對話、製作圖片、影片,都可能讓地球陷入更大的威脅之中。

請ChatGPT答題、做圖,等於運轉微波爐3小時——AI到底有多衝擊能源與環境?


圖片來源:Shutterstock

編譯 田孟心 天下Web only
發布時間:2025-05-27


一件簡單,又讓我們愈來愈熟悉的事:向ChatGPT詢問一些問題,並等它做出回應。

然而,揭開帷幕,會發現每個對ChatGPT或其他聊天機器人的提示,都消耗大量資源。如今,世界各地正在擴建一座又一座的資料中心,我們知道資料中心需要消耗電力、水、土地,但實際數字到底是多少?

為了回答這個問題,《麻省理工科技評論》訪談了20多位測量AI能源需求的專家,並評估不同AI模型和提示,得到有關AI實際耗能的解答——人類普遍難以想像的嚴重程度。


有多耗能?
事實上,在你請AI模型幫忙制定旅行計畫或產生影片之前,模型就已經在資料中心裡了。

全美大約有3,000棟資料中心建築,裡面裝有伺服器和冷卻系統。

伺服器連續運轉數月,訓練資料、處理數字,並執行計算。這是一個耗時且昂貴的過程,訓練OpenAI的GPT-4就花費了超過1億美元,消耗了50千兆瓦時的能源——足以為舊金山供電三天。

當你對AI模型提出指示或查詢時,你的問題會被送到資料中心去處理。

密西根大學是評估AI能源需求的領先團隊之一,由博士生Jae-Won Chung和副教授喬赫利(Mosharaf Chowdhury)領導的團隊分析Meta的Llama 3.1 405B發現,AI模型平均每次對文字訊息的反應需要3,353焦耳,足以讓電動自行車載人行駛約120公尺,或讓微波爐運轉8秒鐘。

而複雜的文字提示,例如編寫創意故事,所消耗的能源還會多達9倍。

產生影像和影片的AI模型則採用不同的架構,稱為「擴散」,它不是預測和生成單詞,而是學習如何將雜訊影像轉換成照片。

研究發現,領先的開源影像產生器Stable Diffusion 3 Medium產生標準品質的圖片(1024x1024像素)需要大約1,141焦耳的GPU能量,相當於電動自行車行駛約75公尺,或微波爐運行約五秒半——比文字訊息略少一些。

接下來是影片。Hugging Face的AI和氣候研究員路西歐尼(Sasha Luccioni)使用名為Code Carbon的工具測試了中國CogVideoX模型——目前業界認為品質最佳的影片製作模型——生成5秒影片所需的能量,相當於騎電動自行車61公里,或運轉微波爐一個多小時。

總體而言,對於一個「有使用AI習慣」的普通人來說,一天會消耗多少能源呢?

《麻省理工科技評論》假設一名用戶作為慈善跑者參加馬拉松比賽,並組織募款活動。該用戶向AI模型詢問了15個關於最佳募款方式的問題。

接著,用戶為傳單嘗試製作10次圖片,直到得到一張滿意的版本。最後,又嘗試3次製作5秒鐘的影片以發佈到社群媒體。

根據專家評估,光是上述這樣的行動,就會使用大約2.9千瓦小時的電力——足以讓電動自行車行駛超過160公里,或運轉微波爐超過三個半小時。

下方繼續閱讀
曝光5,455/日 成本100/月
下文請點廣告解鎖
下文請點廣告解鎖
投放Google多媒體聯播網廣告(點此)arrow_downward,包含轉換代碼安裝

※ 如果看到投資類型廣告,請再三評估風險!

繼續閱讀keyboard_double_arrow_down
由於OpenAI拒絕受訪談論供電消耗問題,因此專家的預估,不能完全代表ChatGPT耗電量,然而他們都以業界最先進、最接近ChatGPT 4o的模型去模擬。


隱藏的代價
資料中心並不是AI時期獨有的,早在2010年代就有臉書和Netflix等線上服務需要大量新資料中心。然而,近年AI熱潮後,2023年,資料中心的電力消耗就翻倍上升。

「人工智慧資料中心需要全年365天、每天24小時的持續供電,」司負責建置和維護AI高能耗數據中心的Mawson Infrastructure Group執行長美瓦瓦拉(Rahul Mewawalla)說道。

這代表資料中心不能依賴風能和太陽能等會中斷的技術,而是傾向於使用更不清潔的電力。

哈佛大學的一項研究發現,資料中心使用的電力的碳強度比美國平均高出48%。

Meta、亞馬遜和Google等科技公司已宣布將使用更多核能作為應對化石燃料問題的目標。這三家公司都承諾到2050年,將世界核能容量增加兩倍。但目前,核能僅占美國電力供應的20%,並且只為一小部分AI資料中心的運作提供動力。

核能還沒準備好怎麼辦?只好先鑽漏洞。今年四月,衛星影像發現,馬斯克位於曼非斯附近的X超級計算中心正在使用數十台甲烷氣體發生器,南方環境法律中心稱這些發生器未經能源監管機構批准,並違反了《清潔空氣法》。


誰來買單?
根據OpenAI,ChatGPT每天收到10億條訊息,人們每天使用它產生7,800萬張圖片,像是吉卜力風格的大頭貼。未來,人們還不只是問聊天機器人一兩個問題,或請他們生出圖片而已,領先的AI實驗室希望「AI代理」能代替人們執行複雜任務——絕對比單獨查詢消耗更多能源。

美國勞倫斯伯克利國家實驗室去年底發布了一份報告,試圖衡量人工智慧的普及對能源需求意味著什麼。這個實驗室由美國能源部資助,曾獲得16項諾貝爾獎。

該份報告裡,研究人員發現,2024年,美國的資料中心消耗了約200太瓦小時的電力,大致相當於泰國這個國家一整年的用電量。

勞倫斯伯克利國家實驗室的研究人員批評科技公司、資料中心營運商、公共事業公司和硬體製造商,稱他們披露的資訊,根本不足以對未來的能源需求做出合理預測,也不足以估計其將產生的排放量。

「這種缺乏透明度的情況,除了限制了本報告的範圍,還凸顯了數據中心的擴增,很少考慮如何與社區發展相結合,」研究人員寫道。

更糟的是,個人最終可能要為資料中心的超預算買單。

維吉尼亞州立法機構2024年的一份報告就預估,該州普通住宅納稅人每月可能要額外支付37.50美元的資料中心能源費用,以彌補公共能源公司不足的部分。

哈佛大學環境與能源法計畫法律研究員馬丁(Eliza Martin)表示:「我們不清楚這些數據中心的收益是否大於成本,為什麼要為這些基礎設施買單?我們為什麼要為他們的電費付錢?」

然而,AI發展正頭也不回地往前奔去。

軟銀、OpenAI、甲骨文和阿聯酋投資公司MGX,計劃在未來四年內在美國投資5,000億美元建造新的資料中心。AI公司還計劃到海外建造數千兆瓦的資料中心,包括正在成為東南亞資料中心樞紐的馬來西亞。

每天,當你要求人工智慧模型為你寫一個笑話或製作小狗的影片時,都會產生少量的能量消耗,並向大氣中釋出相應的碳排。

每一筆碳排雖然不多,可能比用廚房電器還少,但當愈來愈多人轉向AI工具,累積的影響將前所未見。但科技巨頭大多選擇對這樣的細節保持沈默。

(資料來源:MIT Technology Review, Bloomberg, UNEP, IEA)

資訊來源

 
聯播網: 吉傳媒, 傑愛得資訊, 吉拉X, 劉俊宏,