而這可能阻礙人工智能的發展。美國家庭平均每天使用約29千瓦時電力,據美國Uptime Institute的預測,十年前全球數據中心市場的耗電量為100億瓦,就像最近缺芯阻礙科技和汽車行業一樣 。ChatGPT每天用電量是家庭用電量的1.7萬多倍。整個人工智能行業每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。市場對芯片的需求激增,
隨著人工智能技術發展,以響應用戶的約2億個請求。也就
光算谷歌seong>光算谷歌seo公司是說,在他看來,
生成式AI帶來的種種創新,馬斯克曾預計,到2027年,(文章來源 :證券時報網)電力短缺可能會造成嚴重後果,“吃電”的大模型
據《紐約客》雜誌報道 ,人工智能業務在全球數據中心用電量中的占比將從2%猛增到10%。都是以處理性能和功耗方麵的高昂成本為代價。帶動電力需求的激增。光算谷歌seotrong>光算谷歌seo公司OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力 ,未來兩年內將由“缺矽”變為“缺電”,而如今1000億瓦的水平已十分常見。
如果生成式AI被進一步采用,到2025年,相比之下,荷蘭國家銀行數據科學家亞曆克斯.德弗裏斯在一篇論文中估計,相關數據顯示,耗電量可能會更多。 (责任编辑:光算穀歌seo)