作者:黃品瑄|政治大學科技管理與智慧財產研究所 113屆科管組研究生。
研究興趣:服務創新、數位轉型、金融科技
演算法管理(Algorithmic Management) 指的是用演算法來進行決策,取代部分原本由人力執行的管理工作。這概念已經改變許多產業,現在,學術界也無可避免地受到影響,特別是生成式AI的興起。作為研究生,我發現AI在學術領域既是助力,也是挑戰。這篇文章不僅分析AI如何改變學術環境,也探討它對學者專業技藝(craft)和學術社群(community)的影響。我們該如何擁抱科技但不失去學術本質?這不只是技術品質,更關乎我們如何定義知識的價值(Duggan, Sherman, Carbery, & McDonnell, 2020)。
生成式 AI 的信任挑戰
隨著生成式AI在學術界的應用日益普及,出版速度加快、評量標準動搖、學術信任受挑戰,這三大問題浮上檯面 (Bechky & Davis, 2024)。
首先,AI 提高學術出版效率。從資料蒐集、文獻整理到審稿過程,AI讓發表變得更快、更便宜,導致期刊數量激增。然而,這也使「快速出版」成為常態,部分平台甚至靠向作者收費獲利,進一步刺激學術產出泡沫。
其次,演算法影響學術評價標準。Google Scholar 雖是研究者的重要工具,但其引用數可以被購買,讓學術影響力不再純粹反映研究質量。這與 Goodhart’s Law 不謀而合:當指標成為目標,它就不再是好指標。例如,當學者追求高引用數,可能會透過非學術手段提高排名,使評量標準失去公信力。
最後,演算法的不透明性削弱學術信任。現行評分機制缺乏公開透明,讓人無從判斷學術評價是否公正。若引用數與學術聲譽可以「操控」,那麼誰還能真正信任學術成果?這些挑戰不僅關乎技術,更動搖了學術界最根本的價值——知識的真實性與公平性。
深入閱讀與寫作
儘管生成式AI讓學術出版變得前所未有的便捷,人們更應回歸深入閱讀與寫作,以維護學術的核心價值。科技雖能加速資料處理,卻無法取代人類思考的深度,真正的學術交流應建立在細讀與思辨之上,而非機械化的內容產出。
深入閱讀能幫助我們進行全面分析,從類比、推論到與背景知識的連結與詮釋,這些都是AI難以企及的能力。學術不該只是數據的堆砌,而是思想的碰撞,透過閱讀,我們得以培養批判性思維,避免落入人云亦云的陷阱。
此外,寫作不只是表達,更是思考的延伸。當我們將抽象概念化為文字,便能聚焦想法,深化與讀者的連結。若完全依賴AI生成內容,學術對話將失去溫度,寫作淪為機械式的回音,學者與讀者無法真正理解彼此的觀點。最終,作者成為被操控的木偶。學術的價值不在於發表的速度,而在於知識的深度與影響力,唯有親身參與閱讀與寫作,才能確保學術不淪為科技的附庸。
學術重塑:善用AI而不受其操控
如何聰明運用AI,而非被AI操控,成為學術界的一大課題。我們需要從專業技藝(crafting)、學術社群(community-building)、以及效率與效能的權衡(balancing) 三個層面出發,確保AI是輔助,而非主導。
首先,專業技藝的培養 是防止AI稀釋學術價值的關鍵。學術的本質在於批判性思考,而非資訊的機械堆砌,因此,推動深度學習尤為重要。教授與學生應積極參與國際研討會,在會前深入閱讀、準備議題,並透過討論激發思辨。同儕之間的互動亦不可忽視,可透過文獻推薦與評論機制,促進交流,讓知識不僅停留在閱讀,更能轉化為洞見。此外,學術環境的塑造亦至關重要,校園應鼓勵閱讀與寫作文化,例如設置專屬閱讀空間,讓學生在日常中自然而然地接觸知識,而非過度依賴AI提供速成答案。
其次,學術社群的優化 可確保學術評價機制不被AI操控。現今,許多評審制度依賴引用數,但隨著AI操縱學術數據的可能性增加,應加強教職升等審查的標準。例如,在考核時,應檢視學者的多篇作品,評估其整體研究影響力,而非僅憑單篇高引用論文決定學術價值。同時,學術出版的審查機制 亦需改良,應促進作者與審查者之間的交流與辯論,確保論文在發表前經過充分驗證,而非僅依賴冷冰冰的機械審查。
最後,在效率與效能之間找到平衡點,才能真正發揮AI的優勢,而非落入「圖方便而失本質」的陷阱。短期而言,AI能迅速整理文獻、加速研究流程,確實讓人事半功倍。然而,若過度依賴AI,人們可能逐漸喪失深度閱讀與獨立思考的能力,讓學術變得膚淺。在科技發展日新月異的時代,與其讓AI主導我們的學習與思考,不如培養適應新科技的能力,在運用AI之餘,依舊保持學術的嚴謹與批判精神。
這種現象不僅存在於學界,也適用於各領域。例如,生成式AI應用於證券投資 App,確實能提供投資建議與市場分析,然而,若運用不當,可能讓投資者陷入資訊幻覺、群體盲從與風險錯估三大陷阱。首先,AI擅長分析歷史數據並預測市場走向,但市場變數錯綜複雜,若投資者過度依賴AI,容易陷入資訊幻覺,誤以為演算法的預測萬無一失,而忽略市場的不確定性。其次,當AI推薦熱門標的,投資者可能盲目跟風,導致群體盲從,市場泡沫因此膨脹,最終有更多「韭菜」受害。最後,AI雖能計算風險係數,但無法真正衡量市場的貪婪情緒,若投資決策全憑AI,可能導致風險錯估,高估收益、低估市場波動,讓投資者誤判形勢,最終得不償失。
洞見:抗衡AI幻覺
學術的價值,不該淪為人工智慧的數據遊戲,而應深植於人類智慧的積累與交流。科技的進步若無人文素養相伴,終究只是色彩斑斕的幻覺,僅有的是虛無縹緲的意義。我們應讓AI成為工具,而非主宰,確保學術在科技與人文間找到適切的平衡。如此,知識傳承才會有意義,知識創造也才能夠發揮影響力。
參考文獻
Bechky, B. A., & Davis, G. F. 2024. Resisting the algorithmic management of science: Craft and community after generative AI. Administrative Science Quarterly, 69(4): 1-22.
Duggan, J., Sherman, U., Carbery, R., & McDonnell, A. 2020. Algorithmic management and app-work in the gig economy: A research agenda for employment relations and HRM. Human Resource Management Journal, 30(1): 114–132.
沒有留言:
張貼留言