計算機算法尚難破譯人類語言的模糊性和推理的奧秘,人工介入還是不可或缺
導語:《紐約時報》網站週一發表署名史蒂夫‧勞爾(Steve Lohr)的文章稱,如今計算機算法承擔了越來越多的工作,從股票買賣到廣告定位,從政治競選活動到約會安排,甚至是挑選胸罩尺寸,計算機算法無處不在。但不管算法如何演變,都不能完全脫離人工的介入而勝任當今不斷升級的需求。
儘管計算機算法正變得越來越強大、快速和精準,但始終還是只能理解文字字面的意思,任何上下文的引申義和細微的差異往往會成為絆腳石。即便已經非常強大,但計算機算法還是無法破譯人類語言的模糊性和推理的奧秘。但現在人們的要求已經大大提高,希望身邊的設備更能像一個人一樣提供信息。
因此,當編程專家們仍然“按部就班”地編寫計算機代碼時,更多的人需要加入進來做些更微妙的貢獻。為了滿足用戶更深層次的需求,人們不得不對計算機算法的工作進行評價、編輯或校正。例如,人們收集網絡上的資料庫,檢查和驗証它們,然後把它們編輯成能夠響應計算機請求的表單,將答案呈現在用戶面前。在這一過程中,人類對信息做瞭解釋和調整,使之能夠同時被機器和用戶所理解。
我們不妨把這種行為稱為新興的機械與人工協作模式,諸如 Apple 語音助手Siri和IBM的沃森超級計算機在內的問答技術都屬於這一範疇。在這類技術中,單純的計算機算法是無法勝任的。
以Twitter為例,該服務就動用了很多被稱為“裁判員”的合約工,來理解那些搜索頻率突然飆升的詞彙的語義和上下文意思。例如,當米特‧羅姆尼(Mitt Romney)在去年的總統競選中談及削減政府對公眾廣播的預算時提到了“大鳥”(Big Bird)一詞,一時間包含該詞的消息在Twitter上炸開了鍋。很快,Twitter的人工裁判就判斷出這裏的“大鳥”應該是一個政治評論,而非通常意義上的意思,從而對算法做出調整──當人們搜索“大鳥”時,保証跳出來的是羅姆尼談論的“大鳥”及其相關消息。
在這個實例中,只有人類才能快速而準確地理解這樣的詞彙及其背後的相關信息,軟件是無法在較短時間內完成的。同時,裁判們會立即把它加入Twitter的搜索算法,確保顯示結果與人們期望的一致。Twitter的兩位工程師在博客中寫道:“在這類事件中,人工才是系統的核心。”
即便是在非常崇尚算法和工程的 Google ,人工對搜索結果的貢獻也越來越多。幾個月前, Google 開始在知名的地點或人物的搜索結果右邊欄顯示摘要信息,譬如當你搜索“奧巴馬”或“紐約”時,旁邊就會出現簡單的介紹。這些摘要介紹信息一般來自維基百科和其它數據庫,經過人工編輯而成。這樣一來,當 Google 的搜索算法檢測到這些特殊詞彙是就會調用整理好的介紹信息,而不是簡單的顯示連接到其它站點的鏈接。
在 Google 負責搜索質量的工程總監斯科特‧霍夫曼(Scott Huffman)表示:“我們的思路有了轉變,部分搜索結果加入了人工策劃的結果。”
除了內容策劃人員,還有其他人在幫助 Google 開發調整搜索算法,以應對每月超過1000億次的搜索請求。他們通常被成為“評估員”。霍夫曼表示:“我們的工程師開發了搜索算法,但需要評估員幫助測試某一改動是否能夠提升搜索質量。”
23歲的凱瑟琳‧楊(Katherine Young)是一位 Google 搜索的評估員,她是 Google 簽的合同工,目前還在上大學。楊的工作是檢測和調整模糊的搜索結果和排序問題。譬如,針對“國王手裡握的是什麼”,她需要審核現有的搜索結果,給出合理的搜索結果和先後排序。譬如,一個包含“國王手握權杖”的網頁會被作為合理的參考答案放在第一位。
楊表示:“評估不是非黑即白的選擇,有時你不得不將自己置於用戶的角色,然後找出合理的結果及排序。”
IBM的超級問答計算機沃森經過了很長時間的訓練,試圖為醫生診斷提供專業的答案。不過即便如此,它也需要人工的介入。
作為“助理醫生”,沃森掌握了多種醫療書籍裡面的知識。此外,沃森還會接受來自醫學院的臨床醫生們各種詢問,不斷修正自己的知識庫。譬如,沃森可能會被問到這樣的問題,“什麼樣的神經系統疾病是禁忌使用安非他酮的?”沃森的軟件系統數據庫里可能包含了安非他酮這種抗抑鬱劑,但它可能會不明白禁忌是什麼意思。這時就需要人工的介入,告訴機器禁忌就是不能使用的意思,然後沃森才可能給出“癲癇症不能使用安非他酮”這樣的答案。
IBM科學家埃里克‧布朗(Eric Brown)稱:“我們借助醫學專家幫助沃森學習,使它變得越來越聰明。”
總之,我們的計算機算法正變得越來越好,但要完成更智能、更人性化的任務,它們離不開人力的幫助。(朱飛)
.[數碼新聞]紐約時報:計算機時代人工介入不可或缺
http://digital1010.blogspot.com/2013/03/blog-post_1175.html