演講題目:Explainable and Trustworthy Generative AI
演講者:許永真教授(長庚大學智慧運算學院特聘教授、院長)
演講時間:10/30(三)1920-2100
演講地點:普通教學大樓101教室
對對於公司或產業的影響
- AI對於高科技產業的衝擊
- 低附加價值產業反而不易投入AI應用與發展:一般對於AI的刻板印象是AI即將取代人力,然AI所需投入資本的金額實在太高,將導致人力有可能淪為一種價格相對於AI更為低廉的工具或資產,使得AI在傳統產業的普及率將遠低於科技產業,並對於高科技的一般性從業人員的工作帶來前所未見的挑戰。
- AI模型目前很容易受到人為的干預與操縱:當訓練AI模型所使用的資料出現偏頗,或是人類刻意利用AI本身的演算缺陷等,都容易導致AI運算的結果出現嚴重的偏誤,例如:使用人眼無法辨識的複合圖像資料誤導AI的判讀、無限多次的重複詢問AI相同的問題、利用單一性別產出的資料進行訓練會加深AI的性別刻板印象等,都曾使得AI運算結果發生難以置信的錯誤,甚至是出現遠低於人類的表現,這迫使AI的應用必須更為保守並受到規範。同樣由AI所產生的深度偽造、虛假廣告、網路駭客攻擊、AI泡沫風險、人類創意與想像力下降等都將是未來企業營運所必須面對的問題。
- AI主權的擴張或萎縮
- 主權AI (Sovereign AI):指的是一國自行開發並控制人工智慧的技術,以確保資料的主權、安全性與技術性。隨著AI將在各種領域扮演關鍵角色,如果各國或是各個企業未建立屬於自己的AI資源與基礎設施,都將加深各國與企業對於少數AI科技巨頭的依賴與限制。
- 大型語言資料庫(LLM)運算產出的價值隱含於訓練語言本身,如果模型訓練是以外國語言為主,使用本國語言輸入時將只能得到次級資料,若未能掌握資料的自治權,此一影響輕則被竄改遮蔽歷史與重要資訊,重則任由他國訓練語言不斷地擴張話語權,更甚將影響未來的教育與科技發展。這是我國急需發展TAIDE( Trustworthy AI Dialogue Engine)的根本原因。
對於個人的啟發與其他觀點
- 這是今年第四場以AI為題的跨領域專題演講,敝人在台大資工所也選修了一門名為「數位、人工智慧與新興運算架構」的課程,實發現工學院和社會科學的老師們對於AI的認知與期待有著不同視角,經濟學家認為AI終將面臨寒冬,而電機工程師則認為1950年神經網路用手計算的古早寒冬已過且正在迎來春天,這其中的差別應該在於經濟學家是站在社會學的觀點,而資工所的老師們則是對半導體和演算法未來的發展應用持相對樂觀與期待。
- GPU算力和採用的浮點數精度有關,依據訓練或一般推理需求而採用不同的計算精度。16-bit廣泛應用於大多數深度學習的training任務,8-bit它保持一定精度的同時能顯著提高2倍的計算速度。4-bit適合已經訓練好的模型進行推論。 所以當B200 GPU使用FP4精度時,算力可高達20 Peta(1016次方),而使用FP16精度時,算力僅有5 Peta(1015次方)。在資工所所學得到的認知是這只是AI小寶寶牙牙學語的階段,也是深度學習商轉的起點,當浮點運算力單位進步到Yotta(1024次方)時若再搭配低軌衛星等6G的高頻傳輸,將可以進行大規模且成熟的神經網路運算應用,到時候GAI的邊緣應用將是遍地開花。
如果AI運算需要投入更多參數來計算更複雜、更細膩的模型(例如:人性、情緒、靈感),那就需要更多維度的「向量」計算,而多維度向量計算則是GPU平行運算的強項,表示GPU算力的單位是FLOPS(浮點運算數),近年來呈指數型的飆升,從高階顯卡的Tera等級(僅1012次方),2022年NVidia上一代H100 GPU(使用台積4奈米製程,有800億個電晶體,FP8精度的算力來到4 Peta為1015次方)。2024年最新的NVidia GB200伺服器有二個B200 GPU晶片,仍然使用台積4奈米製程,但GPU已含2080億個電晶體,FP8精度的算力已高達10 Peta (1016次方),若搭配第五代NVIDIA NVLink 互連技術更可擴充多達576個GPU,進而釋放一兆到數兆等級參數的人工智慧模型的加速效能。AI資料中心如概略地以1 Exa-FLOP/s(1018次方)的算力估算,若採行FP16精度算力進行模型訓練時,概算約需要使用100台GB200伺服器,僅伺服器造價就約莫台幣100億元,著實可以想見投入訓練的成本之高以及未來將產生AI寡頭的趨勢。
|
作者:
林達賢
臺灣大學工業工程學研究所碩士在職專班
「跨領域整合與創新」高階主管專班(臺大EMS)113級在學學生
|