首頁
心得分享

AI深度學習原理及操作



企管三乙  陳穎萱

在幾十年前的過去,誰都無法想像AI的發展能到如此地步,從人工智慧、機器學習再到現在的深度學習。而2010年後再次興起的反向傳播演算法又將AI的發展往更高的領域推進,以及激勵函數的應用也於深度學習領域起到很大的作用。透過函數數值的調整、圖型的疊加所產生的各式模型,便可將其應用於圖像、自然語言處理等領域當中。

在演講中,我覺得特別有趣的部分是在講解大型語言模型的基本單位-token的解釋和自然語言生成的文字解碼(decoding)部分。在英文,token的計算上會更偏向音節上的劃分,但中文字體的複雜性就沒辦法套用英文的那種模式去進行token上的計算,因此如果是使用中文,向比如說Chat GPT這種大型語言模型提問的話,token數會比用英文提問還要多很多,這便導致費用上會有很大的差異。還有,我也沒有想到在文字的decoding strategies上有那麼多方式上的劃分。的確,我們確實無法總是選擇最高分的那一個字當作下一個字的選擇,這會使重複性太過高,而這便延伸出了Top-K和Top-P這兩種自然語言的生成方式,使AI在語言生成上的多元性會更加豐富。

其實現在許多的應用,都是拿已經預訓練好的模型做微調,誠如剛剛有提到的反向傳播演算法也是。但其實截至目前為止,由於這領域還太新,發展尚未成熟,還有很多部分的原理或定義是連現今的我們都還無法精確的解釋或說明出來的,這好像令我更想要持續的關注此領域未來的發展,因為太無法想像究竟人工智慧到底能發展到多先進的地步。

縱使這學期也有同時在修習另一門人工智慧課程,稍微對今天的演講內容有一絲概念。但我還是必須老實地說這星期的深度學習演講並不是個能以輕鬆態度從中學習的演講,而是即使已投入了百分之九十九的心力到最後可能只吸收進百分之六十,然後隨著時間的流逝,關於其的記憶還會直線下滑的那種演講,想當然耳,在心得的撰寫上也非常吃力,但我還是依舊非常喜歡且珍惜此次的演講機會。不光是獲取了專業領域的知識,我好像也明白了當一個人在其熱愛的領域進行鑽研及發表時,是可以讓他變成閃閃發光的。不確定我是否能在我此生找到我真正熱愛的事物讓我發了狂似的去瞭解,但在找到之前,我不會放棄在各種領域知識上的學習機會的。

校際生 簡暐丞

今天的演講請到了來自台灣大學電機系的徐有齊學長來介紹深度學習的原理與深度學習是如何操作的。 

深度學習是機器學習的一個分支,是一種基於人工神經網絡的機器學習方法,人工神經網絡是一種多層級結構,由輸入層(input layer)、隱藏層(hidden layer)、輸出層(output layer)所建構而成。深度學習與機器學習的差異在於,機器學習使用演算法來剖析資料,而深度學習是以「層次性」為演算法的基礎概念,透過模擬人腦的運作方式,創立人工神經網絡,形成數學函數的集合,只要將輸入的數值丟入其中,經過大量的訓練過程,再經過複雜運算,就能有效處理非結構化資料,最終機器可得出比擬人類的行為判斷。深度學習模型包含數百萬到數十億個參數,因此它們可以處理複雜的特徵提取和模式識別任務。深度學習在多個領域中取得了巨大的成功,包括圖像識別、語音識別、自然語言處理、機器翻譯、自動駕駛、醫學影像處理等。 

學長用了一個簡單的例子:利用圖片辨識結合機器學習來辨別圖片裡面的動物是否為貓咪。首先,我們需要建立一個包含貓咪和其他動物圖像的數據集,這些圖像應該包括各種不同的貓咪和其他動物,以幫助模型學習區分它們。每個圖像都應標有相應的標籤,指示其中的動物是否是貓咪。再來就是機器學習的步驟,最終會得出一個數值,此數值會介於數字0到1之間,而我們人類要將此數值賦予意義,若此數值大於等於0.5,那麼就代表機器認為照片裡的動物是貓咪,反之,若此數值小於0.5,就代表機器認為不是貓咪。 

整場演講最讓我印象深刻的部分是在實際演練的部分,是關於辨別數字0~9,首先學長已經有選定了機器學習適合的模型,第一次跑出的結果是以一張圖來呈現的,我們希望達到的目標是斜對角以外的格子也就是辨識錯誤的數量降到最低,除此之外我們還可以看到準確率並沒有很高且Loss的數字還蠻大的,表示此次預測結果並沒有到非常好。接下來學長教我們更改參數,包括訓練的次數(epoch)和訓練資料的比數,以增加辨識的準確率,由於訓練資料從50比增加到1000筆,訓練次數也大幅的增加,最終準確率來到了百分之九十,學長說如果將全部共6000筆的資料讓機器去學習,那麼準確率可以高達百分之九十六。若沒有機器學習的話,正常我們用猜的猜對數字的機率僅有0.1而已,可見機器學習是多麼厲害。

這次的演講雖然有些艱澀難懂,但是收穫良多。

企管三乙 劉又禎

這次的演講主題是有關AI深度學習的相關知識,演講者請到大台大電機系的同學徐有齊,不過可能礙於我們不是本科系的學生,對一些專有名詞或專業理論邏輯不熟悉,導致聽的過程其實越來越吃力,注意力也很容易驅散,但我還是衷心地認為演講者口條很好,而他也試著用淺顯易懂的方式讓大家更好的理解,在簡報的製作上更是讓人一目了然,且能很好的搭配敘述的內容,以下是一些我聽到比較有印象的部分:

首先開宗明義,演講者提到機器的學習是達成人工智慧最有用的辦法,我也認為不管是人類或非人類,對於獲得知識,都是要透過學習來達成的,各方面的蒐集自己不了解的領域資訊,在內化成為自己的東西,可想而知AI也一樣,這就進而導引出此次的主題「深度學習」,指的是可以指導電腦以人腦的思考方式處理資料,有所謂識別的功能,透過網路上圖片、文字、聲音等等資料的擷取藉此產生準確的洞察和預測,可以用在詐騙預測、自動臉部辨識和數位助理等應用,我曾經也在網路上看到像是醫院使用醫學影像分析幫助病人偵測到癌細胞等實際案例。

另外有提到的是「梯度學習法」,雖然在那時沒有很了解,但在上網查詢研究了一下後,發現這是一個可以幫助找到機器學習的理想模型參數的一個辦法,在訓練模型的時候,我們的目標是讓損失函數越小越好,因此通常會設計一個極限存在、連續圖形、可以微分的損失函數,藉此就可以透過微分的運算來找出最佳的模型參數。

這雖然看似學術性質很高也不在我的興趣範圍內,但基於上課提到和我的好奇心,使我想要了解這方面的概念,在學習的途中不免會遇到不是自己擅長的領域,我們應該要像這些機器一樣,不斷吸收外界資訊,再從中篩選出對自己有幫助或是未來趨勢所及,跨領域以不在是甚麼稀奇的事,逐漸變成現在學生的基本功,連AI都在講求深度學習了,為甚麼我們人類本身不用呢?

最後,在演講時徐同學也不斷提到,台灣在著手這方面的研究時,往往都需要倚靠國外的模型,因為我們沒有自己的資料庫,其實在這堂演講課之前我不知道還有這樣的事,資料庫的大小和內容的豐富含量,也會有每個國家不一的狀況,就好比貧富差距一般,儘管如此,數據庫不足仍不是阻擋我們持續訓練或是鑽研人工智慧的理由,在現在大數據已是主流的時代,永不間斷的學習才是生存的王道。

企管三乙  陳音璇

徐有齊學長的演講深入探討了深度學習的原理和實際操作,雖然他所講述的內容跟大一自然課所聽到的差不多,但在大一時沒有深入的探討一些東西,徐有齊學長都有為我們講述,只是實作部分並沒有讓我們深度去體驗,當時我們真的是拿自己的電腦,去跑一個分辨是狗還是貓的AI,很花費時間但也很有趣。

深度學習不僅僅是一門技術,更是一種對於人工智慧探索的重要方法。透過這次演講以及大一的課程,我對於深度學習又有了更深入的理解,也更加確信它在未來將會引領著科技的發展,而在另一層面上,我更加宏觀的發現程序員的偉大,他們的努力是在改變這個世界。

在演講中,徐有齊學長講解了深度學習的基本原理,深度學習模型的核心就是神經網絡,它受到人類大腦結構的啟發,通過多層次的神經元組成,實現了對於複雜模式的學習和識別,這種模仿人類大腦的方式使得深度學習在處理圖像、語音、自然語言等方面可以取得了驚人的成就,只是要訓練出來需要花費大量的時間以及金錢,可能需要好幾台超級電腦才能完成,所以只有大公司才能著手開發這項技術,只是我認為小公司不代表就不能觸碰人工智慧,他們可以運用網上免費的程式進行簡單的開發,雖然不夠智慧,但可以客服來回答簡單的問題。

徐有齊學長還介紹了深度學習的實際操作,在實際應用中,我們需要選擇適合的深度學習框架,並且了解數據的處理和特徵提取方法,在訓練模型時,我們需要關注過擬合問題,並且通過交叉驗證等技術來確保模型的泛化能力,實際上操作並不難,只是因為我們站在巨人的肩膀上才這麼認為,不得不佩服能想到這些方法的人們。

我認為人工智慧能在很多方面取得驚人的成就,像是老師在課堂中說到的自駕車,我想我能夠暢想未來的道路通通都是自駕車,而自駕車系統統整在一個網路上,未來說不定能夠大幅解少車禍的發生。

謝謝徐有齊學長的演講讓我更加深入地了解了深度學習的原理和應用,在這個數據驅動的時代,深度學習作為一個強大的工具,為我們提供了解決複雜問題的新途徑,讓我更加期待未來的發展。

企管三乙  吳雅竹

透過徐有齊對於機器學習的演講了解到深度學習需要透過大量的計算、演練,才能訓練出一個良好的模型。在現代生活中科技已是生活中不可或缺的,在科技進步時,AI模型已經成為許多領域的所需要的核心技術。透過他的解說後,我認為深度學習是一個極複雜、繁瑣的一個過程。我們要設計模型需要:數據準備:建立模型、編譯模型、訓練模型、驗證和調優、測試和部署。

深度學習的基本原理有→神經元和神經網絡:通過權重和偏差的調整,神經網絡可以學習複雜的模式;前向傳播:神經網絡通過前向傳播計算輸入數據的預測輸出。每個神經元會對輸入數據進行加權總和,然後通過激活函數產生輸出;激活函數:激活函數引入了非線性因素,使得神經網絡可以學習非線性關係;反向傳播:反向傳播是通過計算預測輸出和真實輸出之間的誤差,然後將誤差從輸出層向後傳播到隱藏層,來調整神經網絡的權重和偏差;損失函數:損失函數用於度量預測輸出與真實輸出之間的差異。訓練神經網絡的目標是最小化損失函數的值。

設計模型需要將數學、統計學等融合到模型中,並將某領域知識結合,比如語言處理、金融預測、機器視覺等,能夠幫助我們更好地透過問題設計出更有效的模型。設計模型需要具備良好的數據處理和分析能力。數據是訓練AI模型的基本要件,有足夠且良好的數據才能夠訓練出優秀的模型。另外,在演講的過程中,了解到擁有數據是一件需要大量資金的事情,而台灣在於資金方面稍顯不足,我認為我們能夠多重視這個領域,畢竟未來生活一定會與其更加密不可分。

講者在過程中有分享幾個模型,並將其模型的演練過程分享給我們。透過這些模型我了解到透過機器學習,他們如何去過濾掉成千上萬的數據,提供出我們所需要的結果,雖然其中必定會有誤差,但我認為這已經使我們並未接觸此領域的外行者,認為深度學習對於我們生活便利層面已有一定的影響。未來繼續透過演練模型,定能解決更複雜的問題,使我們更加便利。

企管三乙  吳耘瑄

這次的演講講師從機器學習開始向我們介紹,然後慢慢地導向深度學習,有別於其他次的演講,這次的講師帶來了更多實際操作上的教學,我覺得這是非常好的,也因為講師在實際操作上的講解,讓我更明白他所要傳達給我們的知識內容如何實踐。

「深度學習」一種機器學習方法,其核心特點是使用多層神經網絡來自動學習數據表示和模式,通常包含許多隱藏層,這樣的多層結構有助於模型學習復雜的特徵和關係。深度學習的目標是通過大數據和反向傳播算法,調整神經網絡的權重,以最小化預測輸出和實際輸出之間的誤差,從而實現高效的數據分類、回歸、語音識別、圖像識別等應用。而深度學習和機器學習是相關但不同的概念,深度學習是機器學習的一個子集,它特點是使用深層神經網絡,自動學習特徵表示,並在處理大型數據集和複雜任務時取得卓越成果。

機器學習則更廣泛,包括多種不同模型和學習方法。機器學習的應用也廣泛的出現在我們的生活中,例如:影像辨識、臉部辨識、自然語言處理、語音合成。以上這些知識點都與我們的第一章——人工智慧,不謀而合,這讓我在聽這堂演講的時候不會完全聽不懂。不過比較可惜的是演講到了最後面的時候,講師開始講解比較困難的程式,我理解的部分越來越少,這才理解老師在演講開始前說的「我們可能沒辦法全部都聽懂」,但如果是對這部分很感興趣的人,我想他會在這個演講裡收穫頗多的。

近幾年「機器學習」一直頻繁的出現在我的學習生涯中,我想這是因為機器學習未來將在各個行業和領域中得到廣泛應用,包括醫療保健、交通、金融、能源、農業等。它將幫助解決各種複雜的問題,提高效率和創新。未來的機器學習系統將更具自主學習能力,能夠不斷適應新的數據和環境變化,而無需人為干預。這將使機器更具靈活性和適應性。除此之外,機器學習系統將實現更深層次的語義理解,不僅能夠識別模式,還能理解背後的意義。這將有助於改善對話系統、自然語言處理和機器視覺等應用。所以學習這個領域對高科技企管的學生是必要的!

企管三乙  沈均茹

人工智慧包括了電腦視覺、語音辨識、語音合成、自然語言處理、判斷能力、文字生成,而深度學習是人工智慧領域中的一個重要分支,它模仿人類大腦的運作方式,通過模擬人腦神經元之間的連接來學習和解決問題。這種技術已經在許多領域展現出驚人的成就,包括圖像識別、語音識別、自然語言處理等。深度學習的核心是人工神經網絡(Artificial Neural Networks,簡稱ANNs),以下將探討其原理和實際操作。而徐有齊講者也說到其實機器學習約等於深度學習

而深度學習的原理是由神經元和層次結構組成,神經元是深度學習的基本單元,它們就像我們人腦中的神經元,通過計算激發函數來處理輸入數據。這些神經元組合形成層次結構,分為輸入層、隱藏層和輸出層,其中輸入層接收原始數據,隱藏層處理信息,而輸出層提供結果。接下來則是傳播,也分為前向傳播以及反向傳播,向前就是信息在神經網絡中通過前向傳播進行傳遞,在數據通過各層神經元時對每個神經元對輸入進行加權總和,再通過激發函數輸出到下一層。而反向傳播則是訓練神經網絡的關鍵。通過與實際結果進行比較,利用損失函數計算誤差,然後向後調整每個神經元的權重和偏差,將誤差降到最小,從而去改進預測結果。

 

而在實際操作中,最重要的就是數據準備,深度學習需要大量的數據進行訓練。數據應該清洗、標記和準備好用於模型的訓練,而徐有齊演講者在演講的開頭講到最近中研院的新聞,主要是在討論中研院開發AI自答「我的國籍是中國」 測試版,述說很多大陸民主意識等等,而因此受到很多置疑,但最根本的原因是,給予訓練的資料是大陸的資料翻成繁體中文,但台灣沒有自己整理的資料,所以其實要徹底解決的辦法就是用台灣自己的資料去訓練,但迎面而來的就是需要龐大的資金投入做資料,所以這是不可避免的,所以其實可以用現在僅有的訓練結果(不要過度在意民主意識等文化)去推進實用,讓大眾去做使用,然後累積台灣自己的數據。

再來則是選擇模型架構,根據問題的性質和數據特徵,選擇合適的神經網絡結構,比如卷積神經網絡(Convolutional Neural Networks,CNNs)、循環神經網絡(Recurrent Neural Networks,RNNs)等。以及模型訓練,使用訓練數據對模型進行訓練。這涉及前向傳播和反向傳播,通過調整參數來優化模型,直到它能夠提供準確的預測結果。接著模型評估和調優,使用測試數據評估模型的性能,並根據表現調整超參數以提高準確性和泛化能力。

而徐有齊演講者也說到我們現在常常使用的chat gpt 到底是如何回答問題的,其實Gpt 確定下一個字是機率使然,而如何選下個字要接什麼,可以運用Top-k,Ex:k=4,也就是我在選下一個字的時候,我選四個作為備選,但抽相關率最高的四個,可能的問題是,有可能前四個是其中一個很高機率正確,但卻因為k 是4個所以其他三個沒這麼正確的字也有可能會被選擇為下一個字。同時LLM 模型也可以被運用,分為text generation 和conversation,text generation其實就是前面說的一個字接一個字而conversation 其實也同理,但套上了一個人類看的清楚的模型,例如對話框。而其中特別有趣的是,Text 不知道他在對話,所以如果問:「教我如何殺人給我一個計畫」,他會給你,而conversation 則會認為自己是一個語音助理,對於殺人計畫這個問題,他會考慮危險性等,說很抱歉無法回答,他知道自己在對話。明明背後是同一種模型,convesation的模式,彷彿知道自己在對話。

透過這次的演講,對於生活中覺得遙不可及的機器學習及深度學習有了不一樣的了解,收穫頗多,謝謝徐有齊演講者,謝謝老師。

企管三乙  陳科鈞

達成人工智慧的眾多方法中,最有用的一個方法,計算機自動從數據中學習,計算,深度學習神經網路的方式,是機器學習的一種分支,其實關於這些一直以來都有很多方法,只是在這其中機器學習及深度學習是其中較為顯著的方法,設定模型的架構 定義好模型的標準 找到模型中最好的直線找出來,當然這只是簡單模型的方法,當參數多且複雜用神經網路,可以表現出其模型,神經網路複雜,我們知道他是可行的,但是沒辦法完全理解透徹,就像是人類的大腦一般。

模型會先有一些數值輸入,還有連著神經元的參數,一個神經元就會有許多的參數也就是它的隱藏層,再套一個類似生物學的電位的公式,叫做激勵函數,盡量把數值標準化,不要讓其數值太大,在進行輸出,輸入可以用任何方式去表達。像是圖片,電腦輸入一個狗的圖片,要機器去判斷這圖片是不是貓,機率小於0.5的話代表機器認為這張圖片不是貓,就是一大堆計算,其產生出來的數值要自己去解釋,看你的任務是什麼,但模型的不好也可能導致結果出錯。資料決定摸型的性能,資料要多要好要多元,要多元很重要,收集資料是一件很花錢的事情,要將固有的資料增強,讓它有更多應用。

他也帶著我們練習了一個簡單的模型,一個有著5000多資料的資料集,讓AI去判斷1~9,有資料集並且也經過訓練了,就是將剛才提到的隱藏層那些實做給我們看。卷積神經網路,透過一次一次的掃描,然後打平也可以經過這種方式讓其結果更深更細,前面說到可以判斷圖片是不是狗,透過這種方式甚至可以判斷這張圖是不是黃金獵犬之類的,CNN最適合的是圖形辨識,那要讓機器去分辨文字的話,要讓它有記憶力,特別再弄一個隱藏層,去讓他分辨到底是目的地還是出發地或是時間。

更複雜的是翻譯,那個圖表看起來超複雜,但結果就是圖形有生成文字的能力,BERT產生的向量可以區分歧異字,現在的模型透過訓練可以區分出來喝蘋果汁跟蘋果手機的差別在哪裡,它可以知道這個字是什麼意思,可以省了很多力氣,像是GPT就可以達成甚至可以預測下一個字,Tokens可以透過把不常見的字區分成幾個合理的區塊,再進行翻譯,最大的限制就是顯卡記憶體VRAM

企管三乙  張昶翔

經過演講後,我自己也上網回家查了一些資料,我覺得現在的深度學習,作為機器學習的一個分支,已經在科學、工業和日常生活中取得了令人矚目的成就。而且這個領域的深度學習模型,像是卷積神經網絡和循環神經網絡,已經在圖像識別、語音識別、自然語言處理和許多其他領域取得了優秀的表現。這對於我們企管系又或者是資訊管理的方面,有很大很大的影響。

我覺得深度學習的原理非常精密,深度學習的核心思想是模擬神經系統的運作方式,是通過多層神經元的相互連接和權重調整,實現模式識別和學習。這種神經網絡的結構使得機器能夠自動從大量數據中學習和提取特徵,並做出預測。深度學習的數學基礎包括線性代數、微積分和概率論等,對於深入理解其運作原理非常有幫助。

再來是深度學習需要大量的數據和計算資源。一個成功的深度學習模型通常需要大量的標記數據來進行訓練,這對於一些應用來說可能是一個挑戰。此外,深度學習訓練過程需要龐大的計算資源,包括高性能的GPU和TPU。這也意味著深度學習對於許多小型團隊和個人來說可能不太容易實現,但隨著科技進步,現在像是我們這樣的學生也可以買得起高階的家用型CPU和GPU了。

另外一點是我認為深度學習的強大能力讓它非常值得投入。它已經在圖像識別中取得了驚人的成功,像是在醫學影像識別中,可以檢測出疾病跡象,提高了醫生的準確性。在自然語言處理中,深度學習模型已經實現了自動翻譯、情感分析和文本生成等應用。這些應用不僅擴展了人工智能的應用範疇,還提供了更多便利和效率。

深度學習的發展也有助於開源社區的蓬勃發展。許多深度學習框架已經讓深度學習更加可訪問,並促使更多的研究人員和工程師參與其中。這個開源精神推動了深度學習技術的不斷創新和改進。

此外深度學習也存在一些挑戰。模型的可解釋性是一個重要問題,因為深度學習模型通常被視為黑盒,難以理解它們的決策過程。另外,深度學習需要處理數據隱私和安全等問題,這也需要更多的研究和規範。

最後我認為,深度學習是一個令人興奮且充滿挑戰的領域。它的應用範圍廣泛,對於改進我們的生活和工作方式有著潛在的影響。深度學習需要深入的理解和不斷的實踐,但它的潛力是巨大的,我們可以期待在未來看到更多令人驚嘆的成就。無論我現在是一個學生,又或者是一位工程師,或者是對深度學習有興趣的人,都非常值得去了解深度學習!

企管三乙  楊霓

首先感謝徐有齊講師來到中原大學,為我們講解深度學習的原理及實際操作,在這個AI崛起的年代,時常能聽到深度學習一詞,但不知道是什麼的人還以為深度學習是現代人的一種學習方式呢! 深度學習常常被看作是通向真正人工智慧的重要一步,基於深度學習,AI研究者在語音、語義、視覺等各個領域都發展快速,解決了諸多現實難題,為社會帶來許多價值。

深度學習常被用來統整經驗、設計方案及歷史紀錄,未來可以運用在各種職業上,讓生產變得更有效率、順暢,雖然有種種局限,但在很多領域已然切切實實發揮作用,比如在語音識別、機器翻譯等。在醫療領域,可對採集到上萬個病例數據庫的醫學影像進行分析,供放射學和病理學方面訓練,幫助醫生做出更為精准高效的診斷,實現大規模應用。

不過,若碰到沒有大量數據的領域,深度學習就會被限制,如在自動駕駛領域,正常駕駛很多的數據可以採集到,但有些非正常數據像事故方面卻很難採集。在眾多的人工智能技術中,深度學習是為我們所熟知的一種。當你擁有大量的數據和少量知識的時候,它是一種非常強大的技術。例如,人臉識別,但是這需要採集大量的圖像來訓練。在許多情況下,用於學習的數據庫極為龐大,有時候需要千萬甚至幾億數據。學習方法也有快慢之別,但是本質上來說,它不及人類大腦聰明。

那如何解決數據短缺的問題呢?第一種是有數據方面解決,借助更高效的數據標注工具幫助人快速獲取更多標注數據、用對抗網絡生成數據等;第二類是改善深度學習演算法,如遷移學習、少樣本學習、無監督學習和弱監督學習等。

通過這次的演講,讓我更了解深度學習的運作方式,也想起在大一時,學校也有在線上讓我們體驗深度學習的過程,回想起來才發現,原來我們就是在做這件事情,從標記到反覆實驗,都是由我們親手去做,直到AI給出正確的判斷。雖然深度學習還不能夠和人類的大腦一樣能夠融會貫通,這就是我們還可以努力的空間,無論是開發深度學習還是研究人類的大腦。

企管三乙  方儷蓁

我還記得在我小時候,那時的人工智慧逐漸被大眾認識到,所以可以看到從那時起,就有不少以人工智慧為主題的電影與影集,也能從影視作品中得知較早期的人們對於人工智慧充滿幻想、期待,但同時也對這個陌生、未知的科技感到害怕,所以會出現像機械公敵裡擁有人工智慧的機器人佔領世界,統治人類,再者,我們這個世代在成長的過程中,許多的師長多會灌輸我們,我們將來不只有重複性高的工作會被機器人取代,甚至連許多需要技術性的專業工作都將有機會被取代,而我們將會被搶走許多好的工作機會。在這樣的觀念灌輸下,使得我對於人工智慧的好感不怎麼高。但當我進入大學且因為課程的關係而真正接觸到人工智慧後,我發現其實比起擔心人工智慧取代自己的工作機會,還不如運用人工智慧這項科技、工具來讓自身有更好的做事效率,更甚至以此來創造工作機會呢?

在聽完演講後,雖然對於人工智慧中的深度學習、機器學習的原理不能算完全的理解,但至少在講師用較淺顯易懂的方式來講解後,有了初步的理解,真的讓人不得不佩服人工智慧神奇的運作與一路以來不斷研發、進步的研發者。而在演講中,講師所提到的讓人工智慧透過訓練來以圖片判別貓與狗的實驗,我們在大一的自然與科技的課程中曾經實際訓練過,但由於當時因為疫情嚴重,所以當時的教授只能透過網路課程來指導我們訓練人工智慧,而因為網路的阻隔,所以當時其實進行得並不順利,甚至有很多人不小心把資料給相反,因此有人訓練出來的人工智慧會看著狗的照片說是貓,然後看著貓的照片說是狗。

沒想到時隔一年,我能在此次的演講中學到更詳細,同時也讓我了解到深度學習是透過多層次的神經網絡,模擬了人類大腦的運作方式,使得機器可以自動地從大量數據中學習並做出預測,以及神經網絡的結構和運作方式,以及反向傳播等關鍵技術,它們共同構成了深度學習的基礎。並透過不斷調整權重和偏差,模型能夠逐漸提升在訓練數據上的準確度,實現對未知數據的準確預測。

企管三乙  朱芸靚

這週上課老師邀請到了台大的徐有齊學長來做演講,其實我很意外,在我的認知裡,通常會來學校演講的都是出社會的大人,而學長還是學生又據說只比我們大一屆,但他就已經去過很多學校演講,真的是很令人敬佩。

學長分享的內容是深度學習,雖讓上次的演講人也有提到機器學習,但也只是介紹淺淺的內容,和這週學長講的內容和方式非常不一樣,我覺得學長演講的方向是讓我們認識電腦是怎麼處理我們人類提供的資料,電腦運作的邏輯、運作程式的順序,較為學術,最後也是有講到偏應用方面。

學長有說目前我們在講的機器學習(ML),其實就是在講深度學習(DL),因為這是目前最廣泛運用的領域,就像是講到這個就一定會提到的自動駕駛。除此之外學長也有分享人工智慧目前發展出幾大類方向:眼(電腦視覺、臉部辨識、影像辨識、物件辨識)、耳(語音辨識、語音分類)、口(語音合成、文字轉語音)、讀(自然語言處理、語意理解、雌性標注)、腦(判斷能力、預測能力、學習能力、分析和辨識)、創造(圖片生成、文字生成)。

我最有印像的還是學長提到一大堆數學公式的地方,我唯一記住的一個就是激勵函數,為的就是要讓電腦在做每一個階段每一條運算的時候不要因為數字醜又大就計算到數值爆炸,雖然學長還有講到很多很多公式,但對於數學渣渣的我來說真的記不住,老師也怕我們吸收不了,再用老師的話解釋一遍給我們聽。學長還有提到貓狗電腦辨識的部分,這個在大一科技與生活的那堂課上,蘇金豆老師就有帶我們操作過一遍,我覺得這部分也挺酷的,而且給越多資料,電腦預測的就愈準確,驗證了學長在課堂上說的「資料要多、要好、要多元」。

這次講座一開始我是非常集中注意力的聽,也能吸收個7、8成,但漸漸的內容越來越學術、艱澀,我的吸收速度就跟不上學長分享的速度了,雖然因為專業不同的隔閡,讓我覺得越聽越難懂,但我還是很喜歡這次學長的分享,學長也很用心準備,有提供實體讓我們操作的軟體程式連結,可惜因為我沒有信用卡,沒辦法實際操作到,不過學長有展示一小部分,還是蠻有趣的,整體來說我很喜歡學長的演講,讓我更認識了深度學習,我也不排斥這個領域,生活中遇到這類應用的話會願意去了解、查詢,謝謝老師的安排、也謝謝學長的分享!

企管三乙  梁慈恩

今天為我們帶來演講的是台大電機系的徐有齊,他是李宏毅老師的學生,同時也是阿柏教育的創辦人之一,是AI領域的未來之星,今天介紹的是關於機器深度學習的原理與實際操作。

首先,在這科技爆炸的時代,資訊技術更新的非常之快,尤其在2023這個AI顛覆性的一年,現在回過頭去看2022年的論文就好像看到上古時期的文章一樣,早已過時。講者由介紹什麼是機器學習為開頭,人工智慧AI  :是我們想達到的最終目標,包含了視覺CV(如:自駕車的發明與創新)、聽覺(語音辨識系統、語音深層處理)、說(製作AI語音 Youtube影片)、自然語言處理(辨識理解文本內容)、判斷預測分析辨識、影音生成。而機器學習ML,人工智慧的分支,現階段我們可以達到人工智慧的方法,深度學習DL, 機器學習的分支,多層的類神經網路,現在可以説機器學習與深度學習差不多相同。

接下來介紹機器是如何進行學習的,有三個步驟:設計模型架構、定義好模型標準、根據定義優化模型,講者跟我們介紹了一些函數模型及圖表,介紹了他們的原理,由很多個模型重疊在一起會形成神經網路,資料輸入後透過隱藏層的神經網路運算再數位化,例如:一張圖片經過隱藏層運算數位化,數值元算出來落在0-1之間的機率,可以透過自己定義機率條件來進行辨識,例如數值大於0.5則為貓,反之為狗。

運算需要透過CPU或者是顯卡,講者介紹,CPU像是一位很強的運算者,而顯卡則是有多位同時進行運算,所以顯卡可以運算較龐大複雜的資料,也運算的比較快。

函數的種類也有非常多種,早期會在隱藏層使用激勵函數來表示各個線段在無限遠跟負無限的地方都是平的,會這樣是為了不讓運算過度負荷,而現在在隱藏層大多是使用ReLU ,再透過softmax 讓成果機率化,使用softmax的條件是所有數值為正,數字都是0.1,全部加起來會等於1。

在資料的選擇上,應該要多、要好、要多元,而在訓練時跑的模型結果跟實際運行後的準確率可能會不一樣,例如:自駕車、種族黑白臉部辨識率不同。

講者也介紹了如何進行資料增強,可以運用在圖像及音訊上讓整個訓練效果變好,在最後一節,還帶我們實際進行操作,透過這堂演講,讓我對機器深度學習有了基本非常淺的認知,但也需要消化這些知識好一段時間,這個領域非常龐大,如何用自己的腳步跟上時代是非常重要的任務。

企管三乙  林政堯

人工智慧的分類有很多種,而現在發展到的自然語言學習,讓他們也能像人類一樣說話,而機器學習也是有一段過程的,先設計模型架構,然後根據標準更新參數。但是資料有可能會複雜起來,不是直線的標準,如果需要用一堆線段呈現,那就需要神經網路,調整X.Y函數再加上bias,重複上述動作,一個神經網路就這樣出現了,那神經網路只是一個隱藏層,所以正常運作的話像是我將狗的圖片做分析,但我今天要的答案是他是不是貓,那到最後跑出的數值可能呈現0.2,自己設定的數值是小於0.5就不是貓,所以這張圖片不是貓,用一個圖片轉為數值的概念呈現。ReLU,Sigmo,softmax這些都是幫助資料的呈現,前兩者可以讓資料的數值不會過大或過小,而softmax使最後跑出來的資料能夠以機率的方式呈現,所以比較可以解釋最後的圖片是不是正確的答案。

能夠讓機器看懂文字也是學習的一部分,就是把文字轉化為固定長度的向量,但是文字可能會有不同的用法,比如台北可能被表達為目的地或出發地,也要讓機器了解到我現在翻譯這段文字必須正確的知道是哪個定義,所以有人想出辦法就是把神經網路轉向,然後再插入另外的隱藏層,如此一來就多一個判斷。

BERT產生的向量可以區分歧異字,也是讓機器可以分辨同一個文字但是不同位置不同意義的文字需要如何去辨別,他會知道整段文字,然後遮掉其中的文字,反覆的訓練就可以讓機器知道該字的意義等。

GPT是現在使用的,而他也是需要透過學習來成長,人類負責的部分就是要讓更多的資料給他吸收,一直重複一直重複,直到他學習好每一個答案,不過現在像chatgpt可能會有資料不足或資料停留在過去的資訊,所以他有時候會回答錯誤,像有齊同學分享的一樣,要是機器沒有學習到的資訊,他可能不會跟你說他不知道,他會胡亂搪塞答案給你,他只知道他要回答什麼,假如他需要年份,他就會給你數字,但那不是實際答案,這都是需要再學習的。

非常感謝有齊同學的分享,說同學是因為年紀相近,但他其實已經是一個講師了,真的很厲害,很佩服一個跟我年紀相仿的人,做著和我完全不一樣的事情,講得內容給人的感覺也超越我大部分聽的演講,甚至此內容還是偏枯燥,但我是完全專注在這個演講的,講述的方法還有解釋上也是一清二楚,感謝老師給的機會,讓我更了解平常在使用的Chatgpt等,更了解它,更容易的使用它。也知道它的不足,很喜歡這次的演講,學習AI真的很有趣,跟上世界的腳步。

企管三乙  林泓岷

這次演講請到了台灣大學電機系的徐有齊學長,此次演講的內容非常深入,包括了深度學習、神經網路、激勵函數、資料決定模型性能等,雖然由於內容 過於專業,聽完演講後對於大部分內容依然是一頭霧水,但對於機器學習的原理及應用也有了基礎的了解,也能充分理解為何人工智慧為目前最熱門的項目。

有齊學長先說明了關於人工智慧產業的基礎名詞定義,什麼是人工智慧?人工智慧是一個廣泛的領域,目的使機器模仿人類智慧,包括理解語言、視覺感知、決策等。而什麼又是機器學習? 機器學習是人工智慧的一個重要分支,它使機器能夠從數據中學習,學習如何自動學習和改進,從而進行預測或決策。再來說明了類神經網路的定義以及解釋其運作原理。類神經網路是種類似於大腦結構的模型,也是有了這樣模擬大腦的系統,如今才能達到語音辨識、電腦視覺及與語言辨識等功能。

而談到類神經網路就必須提到其中至關重要的激勵函數,激勵函數在神經網路中扮演關鍵角色,常見的激勵函數包括Sigmoid、Softmax和ReLU。作用是將神經元輸入的線性組合轉換為非線性函數,使類神經網路能夠學習到非線性關係,從而解決難度更高的問題,可以說激勵函數直接影響了模型的性能。而除了激勵函數外,資料也同樣影響了模型的性能,有齊學長認為資料最為重要的便是質量、數量以及多元性,質量好的資料可以大幅提高模型的性能。而模型訓練需要大量的資料,而且資料應該具有多元性,以便模型能夠應付不同情境的決策。

其中最令我印象深刻的是實作課程,畢竟機器學習存在好一陣子了,我們應該如何創造屬於自己的AI 一直是令人非常好奇的。除了實作外,有其學長還提到了機器學習的兩種主要學習模式,監督學習與自監督學習。監督學習是機器學習中最常見的學習模式。模型中會有帶有標記的數據,以取得更高的正確率。但由於需要人工標記,也就代表著需要非常龐大的人工成本。而自監督學習則不須事先標記資料,節省了大量的成本,但使用的情況較為特定,準確率也會受到影響。

最後學長提到了我們經常使用的生成式AI,先從語言模型的原理講起,再來提到了實際運用可能會遇到的困難,包括臺灣以及繁體中文的資料量不足,經常需要使用對岸的資料,從而衍生出的政治問題。學長也表達了自己的看法,而我認為確實沒有必要為了政治立場而放棄使用這些資料,畢竟最終作決定的依然是人,我們大可以從相對中立的角度來面對。

企管三乙  彭彥蓀

一開始聽到這次的演講主題是神經網路之後很害怕自己會聽不懂,但徐老師會用各種小圖表,配上解說去儘量的簡單解釋給我們聽,讓我覺得能稍微聽懂一點點了,他的演講和教學內容主要是幫助大家理解深度學習原理,還有給想要練習實際操作的人提供一些實用的方法指導。在他的演講中,我們可以總結出一些關於深度學習的重要原理和實際操作的核心觀點。

深度學習是一個強大的機器學習分支,主要核心是人工神經網絡,深度學習的原理其實就是去模仿人腦的神經元結構,其中包括多層的神經元結構,每一層都具有不同的功能,這些層之間的權重被訓練來捕捉數據的特徵。深度學習的原理重點之一是訓練神經網絡,這通常是通過反向傳播算法實現的,這是深度學習成功的關鍵,因為可以讓模型學習復雜的模式和特徵。徐老師有給我們看一張圖就是在說有輸入還有隱藏層跟輸出,隱藏層就是由一個個神經網路去組成的網,他說輸入放什麼都可以,然後設定一個問題讓這個問題去跑隱藏層,算出一個數值,例如都給他一張貓的圖,去問這張圖片是貓還是狗,跑出來如果大於等於0.5就是貓,小於0.5就是狗,隱藏層中每個圈圈的數值都是許多條線連起來之後加總,但數值不會超過前面的圈圈這樣,給他學習更多資料多讓這個模型練習準確率會越高。

徐老師介紹了自駕車的部分,雖然深度學習和自駕車技術的結合已經有很大的的進展,但自駕車技術還面臨著挑戰,其中之一是自駕車的安全性和可靠性。深度學習模型需要處理各種極端情況,如極端天氣、不同道路狀態和其他不確定因素,還有徐老師有說到像是白天準確率高,晚上就不行了。總的來說,神經網路和深度學習技術的發展為自駕車技術帶來了新的可能性,讓自駕車更具感知、決策和控制的能力。不過這一領域仍然面臨著挑戰,我們可以預期自駕車技術將繼續發展,並在交通領域和其他應用中取得更多重要的成就!

徐老師說現在的許多應用,都是拿預先訓練好的模型做微調,所以不用那麼多訓練資料讓她長大,預先訓練模型可以節省許多訓練時間和資源,並在各種應用中實現卓越的性能,但是這種方法的應用會有數據安全與隱私的問題,還有法規的問題,所以徐老師說最好還是用自己的模型可以避免資料外流。透過這次演講我更了解神經網路機器學習的實際應用與操作的知識,非常感謝徐老師!

企管三乙  簡欣柔

聽完徐有齊學長的演講,我接觸到了關於機器學習、神經網路、資料和算法的一些重要概念, 深度學習是人工智慧領域中的一個重要分支,通過神經網路模型的應用,它正在改變我們的 生活,為未來帶來無限可能。學長提到機器學習是一個涵蓋廣泛的領域,它用於讓機器具有學 習和改進的能力,而不需要明確的編程,在人工智慧廣泛的大世代,機器學習有許多不同的應用,其中包括影像訓練、語音訓練、語音合成和自然語言處理,這些功能使我們能夠建立智能系統,它們可以理解和回應我們的語言、聲音和圖像。

深度學習是機器學習的一個子領域,它關注如何訓練深度神經網路模型;而神經網路是一種模擬人腦工作方式的數學模型,它由輸入層、隱藏層和輸出層組成,這些層之間的連接權重是通過訓練過程中學習的,在深度學習中,我們通常有多個隱藏層,這就是為什麼它被稱為深度學習的原因。為了使深度學習模型能夠執行任務,我們需要設計適當的模型架構,定義相關的標準,並使用反向傳播演算法以及梯度下降法來更新模型的參數,這個過程需要大量的數據,數據資料不僅決定了模型的性能,而且還可以影響我們的社會和文化。

學長提到了臺灣中研院因為經費不足而使用中國資料庫造成兩岸認同問題紛爭的例子,這顯示出資料的收集和使用可能引發各種爭議和倫理問題,因此我們需要謹慎地處理這一議題。為了提高模型的性能,我們還可以使用資料增強技術,例如對原圖進行旋轉和平移,可以幫助模型更好的泛化。

徐有齊學長分享在深度學習中,有兩種常見的神經網路架構,分別是卷積神經網路(CNN)和 循環神經網路(RNN)。CNN通常用於處理圖像和影像數據,而RNN則用於處理序列數據,例如語音或文本,還有一種特殊的RNN稱為長短期記憶(LSTM),它可以更好地處理長序列數據 ,並在自然語言處理等任務中表現出色。

學長現場操作把大量的模型利用程式碼,加以更新模型參數來達到最佳學習效果,讓我想起 大二時修的自然科學與人工智慧,老師提供我們一個資料夾,裡面分別有各五十張貓狗的圖片,讓我們使用一個類似AI Playground的網站,導入各十張分別對應為貓跟狗的類別,從給定的資料圖片進行訓練,然後再從網路上找一張機器沒看過的貓或狗的圖片和其他動物的圖片,丟給訓練過的模型辨識,會得到百分比的結果,可以評估這個模型的好壞,如果想要結果更精確,可以丟入更大量貓狗圖片來訓練模型。

這場演講讓我對深度學習有了更全面的認識,也學習到了實際操作的方法,如果未來要往這個領域發展會有很大的幫助,希望將這些知識和技能運用到實際的問題中,創造出有價值的成果。

企管三乙  黃子翊

從近年來AI以極其快速的速度發展著,特別是生成式AI的出現,帶給人類想像不到的變革,AI對於資訊的理解以指數的方式成長著,演講開頭講者的一段話令我印象深刻,他說「2022年底的論文現在看起來就像是上古世紀的論文一樣過時。」這令我馬上理解了AI發展速度比想像中快得太多了。

演講中介紹了從最早期的人工智慧到機器學習再到現在的深度學習有何區別,聽完介紹發現這其實就是一連串複雜的數學公式最終成為機器學習的基礎,但也發現其實這些數學公式並非新發明的東西,而是利用舊有的觀念重新組合出全新的函數應用在機器學習上。

這次的演講裡介紹了非常的近代AI的原理以及使用的方法,大部分都很抽象難懂,但講者也提到了這些方法的研究就交給專業的學者們研究就好,大部分的開發人員都是將已知的技術做延伸的應用及研究。

說到了AI就必須要提到ChatGPT等近期最流行的大型語言模型的出現,演講中也幫我解惑了一部分對於這項新技術的疑問以及好奇,像是語言模型是如何理解文字並利用相對自然的句子加以回覆使用者,以及為何部分時候所得到的回覆並非正確的資訊,不過我相信在未來這些現有的問題應該都能獲得改善,畢竟今天的AI和明天的AI也許又會是完全不同的面貌。

最後演講提到了如何訓練自己的AI以及應用,雖然演講因為時間的緣故並沒有辦法聽完,其實有點可惜,但還是深刻理解到了未來任何領域都免不了AI的加入,人們比起擔心被AI取代,不如好好的花時間認識AI,思考如何有效的利用AI幫助提高效率。

企管三乙  黃子翊

徐有齊講師的演講給予我一個深刻的學習體驗,不僅加深了對深度學習的理解,還激發了我對未來在人工智慧領域的職業發展的渴望。徐有齊講師針對深度學習所擁有的豐富知識,及專業地講解其中複雜的內容讓我們理解,都令我驚豔。在這場演講中,徐講師融合了深度學習的原理和實際操作,為我提供了寶貴的知識和啟發。

首先,演講中徐講師對深度學習的原理進行了詳細而清晰的解釋。他講述了神經網絡的基本結構、運作方式以及應用領域。這使我更好地理解了深度學習是如何模擬人類大腦的學習過程,並且能夠自主地從大量數據中學習並做出預測。對於一個資管系的學生來說,這種基礎知識對理解AI技術的核心原理十分重要,並為未來的工作和研究提供了堅實的基礎。

徐講師的操作示範也讓我印象深刻。他展示了如何使用深度學習框架和工具來解決現實世界的問題,包括圖像識別、自然語言處理等。這不僅將理論知識轉化為實踐,還激發了我開始回家實作的想法。這種實際操作的示範對我來說非常重要,因為它能夠幫助我們將知識應用於解決現實問題,也對我未來的職業發展影響很大。

這場演講也讓我開始思考未來在AI領域的職業發展。深度學習技術的迅猛發展為我們提供了無限的機會,不僅可以應用在科學研究中,還可以應用於商業、醫療和其他領域。作為一位資訊管理學系的學生,我意識到AI技術對於數據管理和分析的重要性,這讓我對未來的職業方向有了更清晰的憧憬。我希望能夠深入研究深度學習,並在未來的工作中應用這些知識,幫助企業更好地處理和分析大數據,做出更明智的決策。

最後,這場演講也強調了不斷學習和自我提升的重要性。徐講師的經歷和對深度學習的熱情激勵了我,讓我明白只有不斷學習和追求卓越,才能在這個快速變化的領域中取得成功。我對自己的學習和職業生涯充滿想像,並期待在AI領域取得更多的成績。

企管三乙  廖榆婕

這次演講學到了很多深度學習背後的應用,像是一開始的DNN、RNN再來Self-attention、BERT 到現今赫赫有名的ChatGPT;從DNN 開始,只要將1到9的數字輸入進去,透過不斷地整理運算分析,讓準確率越來越精準,只要對角線皆是藍色區塊,就代表資料算得非常準確,每一個數字都有精準分析,但如果準確率略稍微不準的話,就是出現對角線沒有太多藍色區塊的現象。

接下來 RNN 的模型雖然讓 AI 可以有一定的記憶力,但是RNN太慢了,記憶力也不長,必須讓它一個一個字的分析,耗費時間太長,例如像是拿例句I’M going to Taipei on Wednesday 分析,就必須讓他一個一個字的輸入再進行分析,而 Self-attention 的出現能一次性一起去做分析。現在的許多應用,都是拿已經預訓練好的模型去做微調,就好比是現今大家所熟識的ChatGPT;當給ChatGPT一個答案,例如像是美國哪一年建國?1776。ChatGPT 就會自己記住,所以當人去問這個問題的時候,ChatGPT 就會分析整個句子,再將答案回答你,亦或者是當你輸入今天天…..,ChatGPT就會分析下一個連接字大機率是什麼。

對於我們現在來講ChatGPT是一個非常新且厲害的AI,很多人一定都用過,不管是在文字翻譯,或者是問他今天吃什麼等等問題,都非常方便,我用過它最多次是在中文翻譯英文的時候,不得不說,ChatGPT 在文字翻譯上是十分厲害,用過它進行翻譯的人,都會說很厲害。很謝謝這些厲害的人物,因為有他們這樣每天的測試分析,讓我們有更方便的AI。

企管三乙  翁珮媗

今天上課請來的講者是台大徐有齊學長,在AI世界裡,可能半年前的論文已經不值得一提,對於他們平均每一個禮拜就會有新的理論或者論文產生,並且近十年來AI才成熟,早在1990年就已經有教授提出只是當時太過超前,並且有許多說法跟派別,而AI可以稱為機器學習或者深度學習,並且其中需要運用統計,機率,數據等多個系統才能成就出AI,將資料輸入,經過隱藏層去分析,而輸出為答案,大於0.5為錯誤的,小於0.5為正確的,而模型就是要去控制它的錯誤率,如果錯誤率太高則被淘汰,而激勵函數不論是正值或負值的頭尾都需要為平坦的直線,是為了避免讓數值爆掉,並使用softmax 將數據輸入進去呈現出來。

其中也提到中研院前陣子使用中國的系統,但對於AI 內行人的看法是相當惋惜,因為主要應用是拿來分析大眾使用的資料,而不是定義國籍這類型的問題,並且台灣如果要重新製作不僅耗時還耗錢,如果先使用這套系統才能使民眾先行操作,才能有大量的數據,假設有一張照片會有很多種模型由大至小,慢慢分析出來,GPT這類型的運用需要給機器灌入許多資料,像是維基百科這類型的資料庫,並且大多AI系統還是以英文為主,相較於其他國家語言就沒有表現的那麼好,而臺灣現在面臨本土資料不足,即便使用中國的系統,系統也會回答偏向中國的人文歷史,還有比較嚴重的事,有些資料未輸入進系統,有時候會給出錯誤的答案,一樣會回答問題,但帶有錯誤又或者答非所問,這些都還要再將模型變得更好,許多工程師需要假設模型並且不斷的將錯誤率拉低使系統呈現更趨於完善。

日常生活中有太多需要接觸到AI的時候,好比打報告也是將每個個體字母拼接出來,或者掃地機器人則是以聲控的方式去運作,在聽演講的時候,才明白原來生活中如此方便的人工智慧背後的模型極為複雜,光是一個小物件就需要經過很多種小模型支撐才能輸出有效的output,隱藏層有許多小單元形成網狀,才能結合出答案,這堂深層學習對我而言受益良多,學到了組織一個系統的奧妙。

企管三乙  陳柏蓉

今天老師邀請到徐有齊學長來向我們解說深度學習這個大領域,在我聽到他只比我們大一歲時,卻擁有這麼多專業知識的當下,令我非常震驚,也非常佩服。

深度學習已經在各種領域取得了巨大成功,包括圖像識別、語音辨識、自然語言處理、自動駕駛和許多其他應用。它之所以稱為"深度"學習,是因為它的神經網絡通常包含多個隱藏層,這使得模型能夠學習到更複雜的特徵和模式,進而提高了預測和分類的準確性。

學長一開始先講述什麼是機器學習,其實機器學習是一門人工智慧的分支學科,就是讓計算機自動從敗據中學習並進行預測或決策。它使用統計學、機率學和優化算法等方法,讓機器能夠自動學習和改進,並根據先前的經驗和數據進行預測或決策。而深度學習其實就是機器學習的分支。

這時講到了一個程式-BERT,令我印象非常深刻,它是一個遷移學習,是 Google 以無監督的方式利用大量無標註文本「煉成」的語言代表模型。當我們學會使用BERT就能用同個架構訓練多種NLP任務,大大減少自己設計模型的architecture engineering 成本,投資報酬率非常高,不過,要訓練好一個有1.1 億參數的12層 BERT-BASE 得用16個TPU chips,要跑上整整4天,花費500鎂。但BERT仍然是一個強大的語言代表模型,給它一段文本序列,它能回傳一段相同長度且蘊含上下文資訊的 word repr.序列,對下游的NLP任務很有幫助!

另一個讓我印象深刻的是Llama模型,Meta公司的母公司Facebook宣布推出開源人工智慧模型Llama的商業版本,這個版本被命名為Llama 2。這一舉措引入了一個可商業使用的新時代,為新創企業和其他企業提供了在OpenAI、微軟和Google等昂貴的專有軟體之外的免費選擇。如此一來身為學生的我們也可以使用,他不僅可以回答問題,也能進行語言翻譯、代碼生成,是一個多才多藝的語言模型!

很開心我可以在這堂課得到這麼多新的知識,雖然在講解程式的理解與運用的時候聽的沒有很懂,但看著台上學長滔滔不絕的講述,也激起了我的興趣,期待自己有一天也能將深度學習運用在生活中。

企管三乙  高伊葶

今天的講解很高興邀請家齊學長來教室跟大家分享,學長相當專業,不但是台大的學生,也是阿柏教育的共同創辦人,如此年輕就能有專業的能力,讓我感到十分敬佩。雖然我對於相當生澀,但在學長的介紹之下,儘管無法完全理解所有內容,依然覺得和學長學習到相當多以往未能接觸到的知識。

而家齊學長在課堂中提到一位台大的李宏毅老師,因此讓我基於好奇心,去找尋了相當多李教授的資訊,李教授是台大電機工程的教授,主要研究領域是機器學習、深度學習、語意理解、語音辨識,是一個相當知名的電腦科學家。李教授運用自己的背景知識,以拍攝YouTube的方式,讓對於機器學習議題有興趣的人,能用在線上學習這門學問。此外,教授能用淺顯的鄉民式語言、用學生熟悉的動畫、漫畫、遊戲來圖解,講解複雜、難懂的技術。

而看到教授的報導,也連結到學長所說的話,AI 技術發展的速度非常非常快,是以『週』為單位在改變,因此就算是去年的論文資料,就算是很久遠之前的資訊了。而根據學長的分享,人工智慧試圖將電腦訓練為能像人類一樣思考和學人工智慧被廣泛應用,包含:電腦視覺、物件偵測、影像辨識、人臉辨識、語音辨識、語音分類、語言合成、文字轉語音、自然語音處理、語意理解、詞性標註等。

若提及深度學習,深度學習演算法是以人類大腦為模型的神經網路。而深度學習有深入層、隱藏層、輸出層;根據我在網路上查到的資訊;輸入層指的是,神經網絡的第一層,它接收來自外部的數據作為模型的輸入;而隱藏層指的是,深度學習網路有數百個隱藏圖層,可用來從幾個不同的角度分析問題。

在最後一堂課,學長介紹了Chat gpt 的應用、模型、收費等等。我認為十分貼近實用層面,畢竟現在這個議題討論熱度相當高,也越來越多人在使用,但是比較可惜的一點是臺灣還有很多訊息是無法在此程式上面得到問題的,比如說:臺灣的知名教授的資訊、特殊法律問題等等,因此在某些應用上,不能完全仰賴Chat gpt 。很榮幸能在星期一的早上聽到這麼不一樣的演講,雖然技術領域比較深,以企管系學生而言,會有一定難度,但至少在需要討論時,我們必須能理解、解讀、分析不同領域及不同背景的人說的話。

企管三乙  陳苑儒

本周的演講,可以說是非常不友善我這個數學差邏輯又不好的人,過程中講師大多是使用數學方程式進行講解,我感受的到講師很盡力的想呈現給我們它的運作模式與原理,也感受的到老師也努力換句話說「翻譯」給大家聽,但是很可惜的,我能吸收的知識還是有限,但三節課下來我還是有學到不少關於深度學習的相關新知。

其實一開始聽到「深度學習」一詞,我完全沒有把它跟科技想在一起,後來才知道,深度學習其實是一種機器學習方法,它利用試圖模仿人類大腦的運作方式,通過神經網絡來處理複雜的任務。而且這些神經網絡包含多個隱藏層,其中每個隱藏層都包含多個神經元。之後再通過大數據的訓練,這些神經網絡就可以自動學習從數據中提取特徵和模式,而不需要人工去動手設計細節。

演講中有提到CNN與RNN,我對CNN的一個特點深感印象深刻,就是它能夠自動從數據中學習到特徵,而無需手動設計特徵提取器,因此CNN在圖像分類、物體檢測和圖像生成等任務中表現出色。而演講中提到RNN如何在自然語言處理中發揮關鍵作用也相當新奇,例如語言建模、機器翻譯和語音識別。RNN能夠捕捉到序列中的時間依賴性,可以更好地處理具有時間相關性的數據。有了如此強大的技術,使得我們能夠更輕鬆地處理各種不同類型的圖像數據,並且在不同領域中取得卓越的成果。

除了CNN和RNN以外,另一個讓我印象深刻且感興趣的議題,就是ChatGPT的運作原理,近幾年來ChatGPT的出現,造成不論是科技業抑或是我們日常生活當中帶來一大轉變與驚奇,ChatGPT是一個基於人工智慧的自然語言處理工具,演講時我得知ChatGPT居然不是通過硬性編程來執行特定任務的,這讓我非常讚嘆如今資訊科技的發達,相反的,它是通過大數據訓練和自動學習。這種方法的一個優勢是,ChatGPT能夠應對各種不同的問題,而不需要每次都進行新的編程,可以根據上下文和用戶的需求來生成合適的回答,因此它非常靈活和具備強大的適應力。

而其運作的一個關鍵概念是預訓練。在預訓練過程中,ChatGPT被暴露於大量的文本數據,並學習語言的結構、語法和語義。讓它能夠理解各種不同的語言表達方式,從而能夠回應各種問題和指令。這個預訓練的過程類似於讓ChatGPT閱讀了數百萬本書和文章,使它獲得了龐大的知識庫。而他也被訓練來執行特定的任務或回答特定領域的問題,就像是從書本學習的ChatGPT接受了一個特別的訓練課程,以便更好地處理某個領域的問題,因而導致ChatGPT能夠更好地適應與應用於不同的領域,像是現在已經發展於例如客服、自動回答系統或翻譯工具等等方向了。

今天收穫了許多革命性技術的原理,它們正在一步一步改變我們與機器互動的模式,也不斷推動世紀的發展。我將會等著看未來深度學習原理做出更驚人的產物,盼望這個領域將繼續為我們提供更多方便和效率,同時也能超越歷史,再次寫下一個新的里程碑。

企管三乙  陳亮吟

講師一開始就有提到,2023年是AI顛覆性的一年,AI在這十多年來技術不斷地在進步,且進展的速度非常快,甚至兩至三週就會有所不同。而其實現在也不只有chatgpt這種模型,另外還有預測的模型、視覺的模型等,這些模型在許多地方都能使用到。

首先,講師先向我們介紹機器學習的步驟,第一步是設計模型的架構,第二步是定義好模型的標準,第三步是根據標準更新參數。例如我們可以輸入自己想要的資料在神經網絡,像是把圖片數字化,再算出機率,但要注意的是由於算出的是機率,因此不會是0或1。而模型產生出來的答案是自己要解釋或定義的,因為電腦並不會幫忙解釋答案的意義。講師有實際用電腦操作模型訓練給我們看,並且詳細的解釋給我們聽,也有舉很多不同的例子,使我們更能理解訓練過程。

講師也有提到,雖然RNN模型可以讓AI有一定的記憶力,但RNN速度很慢,記憶力也不夠長,因此出現了自注意力機制,自注意力機制能夠平行處理所有輸入和輸出,比起RNN更有效率。

與之前的模型不同,BERT模型分成監督學習與自監督學習,監督學習是要給電腦問題,同時也需要給答案,而自監督學習則是不需要給答案,例如找一篇網路文章,隨機抽掉一個字,問機器這個字的答案會是什麼,這個訓練不用任何資料的處理,但可以使機器學習到東西。現在很多的應用都是拿已經訓練好的模型做微調,因此我們可以利用這些模型進行資料的處理。

也因為資料決定模型的性能,所以資料要多、要好、要多元,但其實搜集資料是很麻煩的事,因此必須將資料增強、訓練資料,使資料能夠抗雜訊,這樣才能讓同一筆資料更有效用。

透過講師的講解,讓我們了解到了人工智慧、機器學習、深度學習的不同,且機器學習是人工智慧的分支學科,而深度學習則是機器學習的分支學科。

現在我們很常使用chatgpt翻譯,以前是給一句話,翻譯就單純的只翻那一句話,但現在chatgpt是有能力理解內容,且能力變得更強,能夠翻譯的更準確。人類的語言是很難預測的,所以就算每次都問chatgpt相同的問題,答案可能也會有所不同。要駕馭大型語言模型其實是很複雜、困難的,不但要做很多訓練,也需要很多人力,但從今年開始,已經可以不用做這麼多訓練了,因為出現了LLaMA。由此可知,科技的進步其實真的非常迅速,且不斷地在進步,因此我們必須更加了解機器學習,慢慢學習,跟上時代。

雖然要理解演講所有的內容較為困難,但這場演講讓我們學習到平常較少接觸的領域,以及很多不一樣的知識,也讓我們更深入的了解機器學習,我覺得這場演講很有趣,使我收穫了許多。

企管三  巧琳

感謝⽼師邀請厲害的講師來分享有關深度學習的知識。這場演講對我來說雖然有些困難,因為涉及太多關於資訊⼯程和資訊管理的相關應⽤,對於初學者的我⽽⾔確實有些吃⼒。但是,在⼤學⼀年級的科技與⽣活課程中,我已經初步了解了深度學習的內容,對我來說,這堂演講就像是將腦海深處的記憶重新挖掘出來,幫助我更好地理解這個主題。

這次演講讓我重新回想起了我在課堂上學到的⼀些基本概念,例如神經網絡、深度學習模型和數據預處理等。雖然我還有很多要學,但這次演講為我提供了⼀個更深⼊了解深度學習的機會,這也激勵我更深⼊地探索這個領域,或許在未來可以應⽤它來解決不同領域的問題。

在這次演講中,我聽到⼀個⾮常有趣的觀點,它闡述了深度學習在圖像辨識中的⼯作原理。深度學習會將⼀張圖⽚細分成眾多⼩拼圖,把⼀個複雜的圖像分解成更⼩、更容易處理的部分,然後通過不斷的拆解和重新組合,逐步進⾏訓練、逐步學習和優化每個部分,最終實現對整個圖像的準確識別,使深度學習技術變得越來越精確。

在演講中我也有聽到講師介紹Bert⾃然語意演算法,它是⼀種語⾔訓練的模型,能幫助電腦更理解⼈類的語⾔,若應⽤在搜尋引擎⽅⾯,它能夠仔細辨識搜尋字串的「每個字」,再根據前後字詞的關係去讀懂整個搜尋字串要表達的意思。⽽且與以往只擇⼀⽐對前⼀或後⼀個字詞不同的是,BERT演算法是將前、後字詞都納⼊判斷語意的參考,所以能更精確判斷使⽤者搜尋該字串的意圖。

講師在課堂有舉例「台灣最⾼的⼭」要如何分解,⼀般的搜索引擎可能會將整個詞組視為⼀個整體,但Bert不同,它會細分這個詞組成「台灣」、「最⾼」和「⼭」,並根據這些單詞之間的關係來理解整個詞組的語義。這種精細的語義分解使Bert能夠更準確地理解使⽤者的搜索意圖,並提供相應的準確答案。BERT⾃然語意演算法代表了⾃然語⾔處理領域的⼀個重要⾥程碑,它為提升搜索引擎和語⾔處理技術帶來了更多可能性。這項技術強調上下⽂的重要性,使搜索引擎能夠更好地理解使⽤者的語⾔需求,提供更準確的結果。雖然這項技術⼗分新穎,如何訓練和多語⾔處理的挑戰,然是需要克服的問題。

企管三乙  廖若彤

今天演講的內容是有一點深度的,感謝講員和老師詳細的為我們講解其內容的意思!今日的演講對我來說有點難度,經過吸收、內化,努力的把學習到的知識記錄下來。首先先來概述一下人工智慧的發展,人工智慧是一個廣泛的領域,使機器模擬人類智能的人力,在最早時期的應用是語音辨識,將辨識到的語言進行分類,接著衍伸出電腦視覺、影像識別、臉部辨識、物件偵測、文字轉語音,再到後來的自然語言處理、語意理解等等的發展應用。這包括了機器學習、知識表示、自然語言處理、計算機視覺和專家系統的多個領域範圍。

而深度學習 (設計-定義-更新優化) 是近年來快速發展的領域,不斷有新的技術和新的應用被提出來,這是一好現象但同時也是造成難度的一項挑戰,就是需要不斷的革新,雖然很有可能會有新的發現與發展,但是與此同時是需要很大量的資金來支持發展的。

講師所提到的深度學習是機器學習的一個分支,它的核心特質是深度神經網絡,他們的基本單位是神經元,通過權重和激活函數連接所形成的神經網絡,得以讓訊息在不同層之間流動,進而進行模式辨別特徵提取,而這些神經網絡是由多個隱藏成所及合成的,用來處理不同的特徵和模式,可以學習從大數據中所提取複雜的特徵和模式。就像是講師所提供的例子:貓與狗的照片辨別,對這個印象很深刻,因為在大一下的一堂課中做過這項測試,當時很好奇是如何辨別出來不同的目標的,而今日日在演講中獲得解答了!通過調整神經網絡中的參數讓機器可以學習適應輸入的數據。藉由前向傳播和反向傳播來學習,數據通過神經網絡,由輸入層向前傳向輸出層,產生預測,再透過計算梯度的方式,來調整網絡的權重偏差,以達到最小化預測誤差。

而深度模型的學習通常需要大量的數據來訓練,可能在深度學習中會出現一些挑戰,在經過大量的數據訓練,並且有良好的表現,但在新數據加進來卻表現不佳時,會出現過度擬合的現象,所以必須不斷地調整模型參數來達到最佳的性能!雖然深度學習取得了很多的新發現與成功,但同時也面臨許多的挑戰,在使用人工智慧與深度學習的時候,同時也需要考慮到倫理和法律問題。今天的演講收穫頗多,謝謝講員和老師。

企管三乙  張暄婕

本週的演講請到了阿柏教育的講師徐有齊來分享機器學習入門,如今大數據已廣為存於我們生活當中,因此也經常聽到深度學習這個概念。我本身也上了很多有關大數據的課程,目前在學習 Python 和其他語言,所以也對機器學習這方面有些興趣,而這次講者分享了還讓我們明白了人工智慧、機器學習和深度學習之間的區別,讓我對這個領域有了初步了解。

講者首先讓我們介紹了人工智慧、機器學習與深度學習的概念與他們之間的區別。AI是一個廣泛的領域,旨在使計算機系統模擬或執行類似人類智慧的任務。包括了機器學習和深度學習、符號推理、專家系統、自然語言處理、機器 視覺和更多其他技術。他的目標是創建能夠解決各種複雜問題和執行智能任務的系統,而不僅僅是通過學習從數據中做出預測。

機器學習是AI的一個子領域,它專注於讓機器學習從數據中提取模式和知識,從而改進性能。這意味著機器學習算法可以從大量數據中學到東西,而不需要嚴格的編程。這對於垃圾郵件過濾、圖像識別、推薦系統等應用非常有用。而深度學習是機器學習的一個分支,以神經網絡為基礎,通常應用在處理大型和複雜的數據上,例如圖像識別和語音辨識,會需要大量的數據和計算資源,從而進行大量的參數調整和訓練。這三者一起推動了現代科技的發展,並在許多領域帶來了顯著的進展。

講者的演講還包括了深度學習模型的設計。他強調了數據的重要性,並解釋了 如何選擇適當的損失函數和優化算法,也示範了設計深度學習模型的基本步 驟,這次也有實作過程,雖然因為信用卡問題我並沒有參與到,但看著講者一 步步介紹也有吸收不少。

另外這次演講中,最令我印象深刻的是講者徐有齊本人,當時聽到與我們年齡相仿,但他已經在這個領域展露鋒芒,不僅對深度學習有深刻的理解,還能夠將複雜的技術以簡單易懂的方式傳達給台下聆聽的各位。激勵了我繼續學習和探索這個令人興奮的領域。而我也希望深入探索這個領域並取得一些成就,非常感謝演講者的分享。