林建甫專欄

有大數據(big data)全球第一人之稱的麥爾荀伯格(Viktor Mayer-Schonberger),最近來台,再度掀起一陣狂風。

早期在科學及電腦技術尚未發達的年代,要分析巨量資料,並不如想像中容易。但近年來隨著記憶體越來越廉價與電腦運算速度加快,大規模存儲資訊成本極低。配上越來越多的資訊數位化,資料庫技術的完善,使得這些存儲的資訊能夠被輕易按照一定的條件搜索出來。而網路普及、雲端計算,更讓資料蒐集與分析變得簡單可行,大數據自然而然變成一門顯學。從現代金融創新到傳統人類經濟行為分析與商業趨勢研判,大數據幾無所不包。

有趣的是大數據的科學研究,其實是顛覆人工智慧之路。過去人們總是試圖讓電腦理解人類的指令,但折騰很多年,發現電腦理解力實在很白癡,比3歲小孩還不如,只好放棄讓電腦變聰明這條途徑。退而求其次,大數據的科研是條笨蛋之路,充分利用電腦不會累的特性做大量資料的分析和匹配運算,如是而已。

舉個例子說,過去的人工智慧希望電腦能聽得懂人在說什麼。但現在語音輸入,蘋果Siri或微軟Cortana完全不用知道你在說什麼,而只是將你的語音資料和後台大數據資料庫進行反覆匹配的賓果過程,找到對上再進行語音回答輸出。聽得懂涉及到理解因果關係的範疇,分析尋找匹配只是重複運算的笨蛋工作。

準此,麥爾荀伯格研究的結果認為大數據的分析具有三個特徵:全樣而非抽樣,效率而非精確,相關而非因果。這樣的結論更顛覆傳統的統計思維。因為傳統統計方法需要抽取樣本(sample),來推估未知母體參數(population parameter)的真實值。然而,在分析樣本的過程中,為推算最適的母體參數值,估計量(estimator)通常必須滿足不偏性、一致性及有效性。但在大數據分析中,母體等同樣本,沒有抽樣的問題,也不需利用或發展各種統計技巧去推估母體概況,而是直接從母體萃取訊息,自然也就不用擔心是否會產生偏誤、不一致或不具有效性的問題。換言之,在大數據的架構下,不須拘泥於傳統統計觀念與方法,也不用強調資料的精準性,而可以將研究集中於分析巨量資料中隱含的關係及推測未來資訊。

同樣的大數據也對經濟研究發生影響。過往經濟理論在解構社會經濟行為時,主要是依靠模型,把複雜社會現象加以抽象化及簡化,進而比較靜態或動態規畫,分析變數之間的關係。這種具體而微地描述社會現象的機制,並加以界定變數之間的作法將逐漸被取代。因為大數據可以分析複雜的現象,不用都抽象及簡化。把所有的數據都丟進去,透過電腦的模擬(simulation)及校準(calibration)運算,可以輕易地計算變數間的相關性,進而判斷彼此關聯。那經濟變數間的互動作用就可以一覽無遺。

實例上,谷歌有一個「谷歌流感趨勢」的研究,它通過分析搜索關鍵字的相關資料來判斷全美及各地區的流感情況。結果曾經對某些地區準確判斷流感已經進入「緊張」級別,發出警告要人們少出門,避免染病。

國內日前中信銀推出「買房規畫」網站,也有異曲同工之妙,結合內政部實價登錄資訊,以及聯徵中心購置住宅貸款統計資訊,形成全台房價的大數據,再透過網站設計的工具萃取與篩選這些巨量資料,進而提供民眾更直接、更便利的購屋資訊。

然而,大數據應用雖然對新社會帶來龐大商機,有人更擔心個人的隱私資料被有心人士偷竊或不當使用,可能衍生出社會問題。因此我國於民國99年4月27日三讀通過修正《電腦處理個人資料保護法》為《個人資料保護法》。可是目前各界的反應是太過嚴格,因噎廢食,妨礙商業進展及阻礙社會進步。其實大數據使用只要將資料執行去識別性(de-identification)將個人資訊拿掉,或進行資料重組或加密等資料保護的做法,就不會讓個人資料隨便洩漏,也不會引發爭議。政府宜鬆綁目前嚴格的規定。

農業社會人們以土地為核心資源,工業時代轉為能源,資訊社會則將變更為資料。誰掌握資料,以及資料分析方法,誰就將在這個大數據時代勝出。

(作者為台灣經濟研究院院長、台大經濟系教授)(中國時報)

大數據顛覆傳統科學思維