《零基礎入門的機器學習圖鑑》到底什麼是「機器學習」?

320

器學習,是指電腦根據被賦予的問題或環境,自動進行學習,並運用學習結果來解決問題的一連串過程。與機器學習一起出現的詞彙,包括人工智慧(AI)及深度學習(Deep Learning)等等,現在就讓我們來一一釐清。

機器學習
圖片來源:采實文化提供

首先,人工智慧涵蓋的意義非常廣泛,是一種總括性的概念(圖1.1.2)。而機器學習,則是實現人工智慧的方法之一;換言之,機器學習雖不是實現人工智慧的唯一方法,但近年在人工智慧的相關研究裡,以機器學習最為普遍。實現人工智慧的方法包羅萬象,有事先制定規則的方法,也有進行數理預測的方法等等。

近年備受矚目的,是一種名為深度學習的機器學習演算法。有些人誤以為深度學習就是人工智慧,但事實上,深度學習只是機器學習的演算法之一。起初,深度學習是因為在圖像辨識領域中成效卓越,才開始受到注目,如今已廣泛運用於其他領域。

機器學習有許多演算法,使用者必須根據機器學習的對象選擇最適合的演算法,而本書的目標正是幫助各位學會如何適切地選擇演算法。只要掌握每一種演算法的性質,相信就能學會實際操作機器學習。

機器學習的種類

機器學習
圖片來源:采實文化提供

機器學習有許多種類,根據輸入資料(input data),可分類如下:
• 監督式學習(Supervised Learning)
• 非監督式學習(Un-supervised Learning)
• 強化學習(Reinforcement Learning)
以下將逐一詳述。

監督式學習

監督式學習是將問題的答案輸入電腦,讓電腦學習機器學習模型的方法,前提是必須具備「表示特徵的資料」與「作為答案的目標資料」。

假設我們提供電腦「身高」和「體重」作為特徵資料,再提供「性別(男性/女性)」作為答案資料(圖1.1.3),讓電腦學習並建立預測模型。之後,只要將新的「身高」、「體重」資料輸入預測模型,便能預測出「性別」。

機器學習
圖片來源:采實文化提供

像「判斷性別」這種預測屬性的問題,稱為分類問題(Classification);而此範例是分為「男」或「女」兩者之一,因此稱為二元分類(Two-class Classification)。分類問題中,也有細分成10 種不同屬性的狀況,稱為多元分類(Multi-class Classification)。綜上所述,當作為答案的變數並非連續值,而是表示屬性的資料,也就是離散值時,便屬於分類問題。

另外,上述「表示特徵的資料」,一般稱為特徵(feature)或解釋變數(Explanatory Variable),而「作為答案的資料」則稱為目標變數(Target Variable)或標籤(label)。

機器學習
圖片來源:采實文化提供

日常生活中常見的分類問題之一,就是垃圾郵件過濾器。由使用者自行判斷垃圾郵件並貼上標籤,作為目標變數,而寄件者與郵件內文則是特徵。使用者貼上標籤的資料愈多,機器學習就會進行得愈順利,預測的結果也會更精確。

除了分類問題,監督式學習中還有「迴歸問題」(Regression),可預測大小關係具有意義的數值。例如,先將「性別」與「身高」作為特徵資料輸入電腦,再輸入「腳掌長」作為答案資料(圖1.1.5)。
在分類問題中,雖然可以將「男」視為0、將「女」視為1,也就是將標籤加以數值化,但此數值的大小關係並不具備任何意義。相對地,鞋子的尺寸,也就是「26.5cm」與「24cm」等數值的大小關係,則具有意義。

預測這種具有意義的數值,就是所謂的迴歸。在迴歸問題中,我們會將目標變數視為一種連續值,因此像23.7cm 這種並非一般鞋子尺寸的數值,也可能成為預測值。

機器學習
圖片來源:采實文化提供

非監督式學習

上述的監督式學習,是同時透過特徵與目標變數(正確答案)來學習的方法,而非監督式學習則不會提供目標變數(正確答案)給電腦。

有些人可能會感到疑惑─ 假如不告訴電腦答案,電腦要怎麼學習?

在非監督式學習中,我們會先輸入特徵資料,再將這些資料加以轉換,以其他方式呈現,或是找出資料中的子集合;這麼做的主要目的是分析輸入資料的結構。

此外,相較於監督式學習,非監督式學習的結果較難以解釋,或是必須根據分析者的經驗來進行帶有主觀的解釋。這是因為監督式學習的指標,是「能不能正確地預測目標變數」;但採用非監督式學習時,則必須對輸入資料具有某種程度的先備知識,才能針對結果進行解釋。

以下將以「分析某國中的學生成績」為例,來說明非監督式學習。假設「擅長數學的學生,也很擅長理化,但不擅長國文和社會科」。

若使用非監督式學習最具代表性的方法─ PCA(Principal Components Analysis, PCA)來分析輸入資料,便可得到一個新的軸,用來解釋名為「第一主成分」的資料(有關PCA,詳見第3 章圖鑑編號10:PCA)。我們可以說,在第一主成分上的座標,「值愈小,就愈擅長數理;值愈大,就愈擅長文科」,同時如表1.1.2 所示,我們可以將數學、理化、國文、社會等4 種特徵呈現於1 個軸上。

機器學習
圖片來源:采實文化提供

範例是因為採用了PCA,才能清楚地解釋結果;換言之,我們必須根據輸入資料來選擇適切的演算法。近年來,非監督式學習在圖像及自然語言處理(Natural Language Processing)方面的研究大有斬獲,也是一個備受矚目的領域。前文介紹的PCA,一般會歸類為降維(Dimensionality Reduction);所謂的降維,是一種以最少的特徵去分析資料的方法。

非監督式學習中另有一種名為分群(Clustering)的分析方法,可將資料區分為多個群集(Cluster,由相似資料組成的群體),再加以分析。一般人很難直接看懂多變量資料(Multivariate Data,由3 種以上變數組成的資料),但只要使用分群,便可用群集這種簡單的形式呈現。

機器學習
圖片來源:采實文化提供

本書將在第3章詳細介紹非監督式學習的演算法,各演算法名稱及適用的方法,列於表1.1.3。

機器學習
圖片來源:采實文化提供

強化學習

強化學習旨在學習如何使在某個環境中行動的智慧代理人(Agent)獲得最大效益,不過強化學習並不在本書討論範圍內

舉例而言,強化學習就好比玩家(智慧代理人)在電玩(環境)中不斷嘗試錯誤,以獲取高分(效益),贏得最後的勝利。我們也可以將強化學習視為一種監督式學習,效益則相當於目標變數的值。

以電玩來比喻,玩家在遊戲中每個場景裡的行動有太多組合,想光靠人力來替每個動作評分是極為困難的。若將遊戲的場景與玩家的行動視為特徵,將分數視為目標變數,那麼玩家只要反覆玩幾次遊戲,電腦便能自動收集特徵與目標變數的組合。在強化學習中,反覆學習玩家在遊戲中的行動與遊戲結果,便能逐漸學會最有效益的行動。

本文節錄自:《零基礎入門的機器學習圖鑑》一書

機器學習
圖片來源:采實文化提供

【作者簡介】

秋庭伸也
2012年畢業於早稻田大學基礎理工學院
2015年畢業於早稻田大學理工學術院基礎理工學研究科機械科學專攻碩士班
現為Recruit Communications股份有限公司技術長

杉山阿聖
曾任職於某製造業旗下之資訊子公司,iOS App開發資歷3年、聊天機器人開發資歷2年。
現於SENSY股份有限公司擔任市場分析研究員,將機器學習運用於業務中。
樂於參加工程師讀書會、發表演說。

寺田學
CMS Communications股份有限公司董事長
一般社團法人PyCon JP 代表理事
Plone Foundation Ambassador
一般社團法人Python工程師培育推廣協會 顧問理事
PSF(Python Software Foundation) Contributing members

協助建構Python Web相關業務並提供諮詢。2010年起積極參與日本國內之Python社群,致力發展PyCon JP。2013年3月擔任一般社團法人PyCon JP之代表理事,同時也在OSS相關社群擔任版主或工作人員。

【譯者簡介】

周若珍
日文教師,日文翻譯。對教育充滿熱忱,並從事各領域的口筆譯工作。
深愛動物,支持以領養代替購買,以結紮代替撲殺。
FB粉絲頁「なるみの楽しい日本語教室」:facebook.com/narumi.nihongo

 

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

本文由采實文化授權,請勿任意轉載
【延伸閱讀】

【誠徵專欄作家】你喜歡寫作嗎?你擅長用文字觸動人心嗎?《董事長碎碎念》邀請對寫作充滿熱情,正經營個人粉絲團或部落格的你,加入專欄作家行列!歡迎來信投稿職場行銷、成功守則、名人勵志主題文章,並於文末附上100字內的作者自介。文章經編輯部潤飾後更有機會刊登在《董事長碎碎念》FB專頁,快點把握機會點我投稿吧!