課程簡介

「自然語言處理(NLP,Natural Language Processing)」是一門利用神經網
路,教會電腦理解我們人類日常使用的自然語言(如:中文、英文),好讓一
般人能透過日常的對話模式,在不學習額外的程式語言的情況下,讓電腦理解
我們的意圖,並解決問題的技術。
從2022年ChatGPT問世以來,該產品背後使用的「自然語言處理」技術,便
成為一般人最想學習的熱門學問。人們除了好奇ChatGPT背後是怎麼理解人類
的語言之外,更想了解是否能撰寫「屬於自己的ChatGPT」,來讓程式更有智
慧、更了解人類意圖地解決日常問題。
本課程會從NLP原理、基本任務和應用場景入手,並透過分析其技術演進,建
立對此領域的基本認識。接著,學生將學習實用技能,如簡單的網路爬蟲和使
用 PyTorch 建構基本模型,逐步掌握如何使用神經網路構建NLP模型的基本概
念。
課程後半會開始介紹各種NLP模型。包含「循環神經網路(RNN,Recurrent
Neural Networks)」、Seq2Seq、注意力機制、Transformer、BERT、GPT、與
大語言模型(LLM,Large Language Model)。通過這些學習,學生將具備運
用進階 NLP 技術於實際專案的能力,為未來的學術或職業發展打下堅實基礎

此外,本課程最大特色,就是教您如何「用 AI 來寫程式」。與坊間逐條講解
程式碼的教學方式不同,我們會講解每一種NLP模型背後的原理,以及背後運
作的流程。讓您把流程轉化為用白話文撰寫而成的「提詞」,要求 AI 輕鬆做
出您想要的NLP程式碼。
請注意!本課程強烈建議具備Python程式語言與神經網路基礎。如果您對該兩
門主題不熟悉,建議修習台大計中相關課程後,再來參加本課程。

課程大綱

1. 自然語言簡介
2. 開發環境與函式庫介紹
3. PyTorch 神經網路建模初探
4. 語料庫、網路爬蟲、以及其它文本資料取得
5. 自然語言前處理
6. 文本數位化表示法(詞嵌入、Word2Vec、GloVe)
7. 循環神經網路(Recurrent Neural Networks, RNN)
8. Seq2Seq 演算法
9. 注意力機制
10. Transformer 演算法
11. 預訓練語言模型(Pre-trained Models, BERT, GPT)
12. 大語言模型研究(Large Language Model, LLM)

課程資訊

授課教師:紀俊男
上課教室:遠距課程
上課時數:30小時
招生名額:30人

收費金額:
校內費用:4400元
校外費用:5600元

上課時間:
2025/06/27下午18:30到21:20
2025/07/04下午18:30到21:20
2025/07/11下午18:30到21:20
2025/07/18下午18:30到21:20
2025/07/25下午18:30到21:20
2025/08/01下午18:30到21:20
2025/08/08下午18:30到21:20
2025/08/15下午18:30到21:20
2025/08/22下午18:30到21:20
2025/08/29下午18:30到21:20


講師介紹:
紀俊男老師,
任教於台灣大學、政治大學、臺灣科技大學等多所學校。
也是和群資訊創辦人、紀老師程式教學網管理者。

上課須知:
▣必須熟悉 Python 語言。包含分支、迴圈等基礎語法,Tuple, List, Dict 等資料結構,以及函數與物件的製作等。
▣需具備神經網路基本知識。如:了解如何建構簡單的神經網路,知道激活函數、權重初始器、損失函數、評估函數、優化器等名詞的意義等。
▣需具備一定的高中數學基本常識。如N元一次方程式、矩陣運算、平均值/標準差等基本統計概念…等。
▣本課程於114年5月12日開放報名。
▣招生人數:30人
▣若報名額滿,計資中心將依身份別、報名與繳費順序決定錄取名單。