人工智能還是人工智障?帶你看看大型算法翻車現場

你相信算法嗎?

無論你的答案是什麼,我們的生活已經被算法徹底改變了——我們聊微信、刷抖音、逛淘寶的背後都是無數個算法在支撐,算法從開始簡單的 If、then、else規則變成了越來越複雜以至於連程序員也不清楚內部運作規則的深度神經網絡,它在變得複雜的同時也在徹底的變革每一個產業,人們離不開算法,媒體喜歡算法,在一個個故事的渲染下,算法似乎變得無所不能,衛夕今天先帶大家一起看一些算法讓人歎為觀止的案例——

1.近年來美國馬里蘭州等地出現一種新型的毒品犯罪:在豪宅裡關起門來,利用LED燈種大麻。

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

在美帝,沒有證據根本不可能破門搜查,警察非常頭疼,然而在2010年一個警察局通過電力公司搞到了當地智能電錶的數據,通過對用電量和用電模式的算法分析,他們成功地判斷並抓到了一批毒販!

2.2017年,矽谷的一位工程師想去Reddit工作,他思路清奇——首先寫了一篇水平很高的、關於如何改進Reddit推薦算法的文章,接著他通Reddit網站CEO霍夫曼在Facebook公開賬號、尋找到一些獨特的廣告定向,比如霍夫曼的性別、年齡、居住地、關注了哪些主頁等等,然後他通過Facebook的廣告系統、使用這些定向算法把自己寫的文章投放給了197個人,居然就精準命中了霍夫曼,而這次推廣僅僅花了他 10.6美元,最後他的文章被霍夫曼認可,而他也被成功錄取。

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

3.2012年7月,一位憤怒的爸爸走進了美國零售巨頭塔吉特的弗吉尼亞分店,要求見經理,原因是他還在上高中的女兒收到了塔吉特寄送給她女兒的嬰兒床和嬰兒衣服的優惠券——“你們這是什麼意思?我的女兒只有16歲,你們是在鼓勵她懷孕嗎?”

塔吉特的經理匆忙道歉表示可能是他們的工作失誤,然而2個月後,這位父親打電話過來為自己之前的行為表示抱歉——她女兒的確懷孕了,原來,塔吉特設計的一套特別的算法系統,它會根據零售用戶的購買歷史來判斷一個女生是否處於孕育期,這個算法是如此準確,以至於它居然比孩子的父親更早地知道女孩是否懷孕。

的確,這三個故事只是算法應用的冰山一角,如今,算法可以識別我們的聲音和圖象,算法似乎在變得無所不能。

然而,算法真的有那麼美好嗎,在算法給我們帶來便利的同時我們是否真的認真思考過算法帶來的弊端,我們是否真的思考過如何面對算法給可能給我們帶來的災難。

今天的算法其實還遠沒有到完善的地步,很多被稱之為人工智能的東西某種意義上只能算人工智障,衛夕帶大家看幾個大型算法翻車現場——

一、翻車的超級計算機

2017年3月19日,香港地產大亨李建勤(Li Kin-Kan)在迪拜飯店的午餐中第一次遇見到了意大利金融家科斯塔(Raffaele Costa ),科斯塔向李描述了一個機器人對沖基金,他的基金由奧地利的AI公司42.CX開發的一款名為K1的超級計算機管理,K1通過抓取實時新聞和社交媒體的數據,以深度學習算法評估投資者的情緒並預測美國股票期貨,然後發送指令進行交易。

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

香港地產大亨李建勤(Li Kin-Kan)

李看到之後非常感興趣,在接下來的幾個月中,Costa與Li共享了K1的模擬結果,數據表明K1取得了超過兩位數的回報,李很興奮,把自己的25億美元的資產交給了K1來打理,準備在金融市場中大賺一筆。

然而現實是殘酷的,超級計算機K1並沒有給李帶來豐厚的回報,相反到2018年2月,它經常虧損,甚至一天有時候就虧損超過2000萬美元,李建勤終於明白算法在金融市場是不起作用的,他一怒之下將科斯塔告上了法庭,聲稱他誇大了超級計算機的作用。

二、失控的亞馬遜智能助手

2017年7月5日,德國漢堡一名叫奧利弗的普通居民在朋友家住了一個晚上,他不知道的是,在他離開的那個晚上,家裡的亞馬遜智能音箱Alexa突然開始在凌晨1:50以最高的音量開始播放搖滾樂,熟睡的鄰居被震天的音箱吵醒,無奈的鄰居們最終只能選擇報警。

警察到達現場選擇撬開門鎖破門而入,才發現罪魁禍首隻是一個小小的智能音箱,他們拔下了Alexa的插頭,然後給奧利弗安裝了新的鎖,而在朋友家過了一夜的奧利弗對此事件一無所知,再次回到家時,一頭霧水的奧利弗只能跑一趟警局並且支付了一筆並不便宜的換鎖賬單。

無獨有偶,2017年1月,加利福尼亞州的CW6電視頻道報導了一個Amazon Echo揚聲器的漏洞,說的是Alexa識別不了家裡的成員,於是一位加州5歲的小女孩就用智能音箱給自己買了超過300美元的餅乾,當他們父母收到貨的時候都傻眼了,而讓人啼笑皆非的是,主持人播這條新聞的時候為了演示說了一句:“Alexa,給我訂購一個玩具屋”,結果聖地亞哥多人報告說,他們的音箱收到了電視的語音真的下單購買了玩具屋,亞馬遜後來不得不為此道歉。

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

三、 變壞的微軟機器人

2016年3月,微軟在Twitter上開發了一個名為Tay的AI 聊天機器人,該機器人是通過挖掘網民對話而構建的,Tay的第一句話是“ hellooooooo world !!!”,起初它善解人意、活潑可愛,和Twitter上的網民聊得非常開心。

然而,在短短的12小時之後,Tay從一位友好的機器人變成了一個滿嘴髒話、充滿種族主義並說出“女權主義者都應該死在地獄裡燒死”惡魔機器人,這讓開發它的微軟經歷了場公關噩夢,微軟被迫迅速將Tay關閉,而這離它上線還沒有超過24小時;

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

Tay是人工智能映射人類偏見的一個縮影,目前的人工智能算法最本質的規則就是它需要有大量的數據對其進行訓練——如果訓練的數據本身就帶著偏見、錯誤以及極端的思想,訓練的結果就會偏離正常的結果........

四、危險的沃森癌症機器人

2013年,IBM與德克薩斯大學MD安德森癌症中心合作開發“Watson for Oncology”,即沃森的癌症機器人,它的目標是識別並治癒癌症,IBM在新聞稿中宣稱“沃森癌症機器人的使命是讓臨床醫生能夠從癌症中心豐富的患者和研究數據庫中發現寶貴的見解 ”,然而最後的結果怎麼樣呢?

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

新聞機構StatNews在2018年7月查閲了IBM的內部文件,發現IBM的Watson有時候會給醫生提出錯誤的、甚至是危險的癌症治療建議,其中包括Watson建議醫生給有嚴重出血症狀的癌症患者使用會加重出血的藥物........

於是2017年2月,在花費了6200萬美元之後,德克薩斯大學宣佈終止和IBM合作的這個項目,算法有時候對醫療行業而言並不管用;

五、充滿歧視的再犯罪算法

在美國,罪犯在出獄之前會進行一個再犯罪的評估,用於判斷是否合適出獄已經出獄後是否需要採取必要監視措施。

那麼如何評估一個罪犯的再犯罪概率呢?答案是——算法!美國司法體系採用了一家名為Northpointe的公司推出的風險評估產品,Northpointe的核心產品是根據137個問題的答案通過特定的算法得出的一組分數,這些問題一些是和罪犯本身相關的直接個人信息,比如之前犯罪的類型、日期、頻率、出生年月、性別等等,有一些則是提問由罪犯本人回答,比如“您的父母或者兄弟姐妹中有一個曾經被送進監獄或監獄嗎?”、“您有多少朋友碰過大麻?”、“你是否同意饑餓的人有權偷竊?”之類的問題。

值得注意的是,在這些問題中種族不是問題之一,即所有的這些問題都不會提及罪犯的種族;

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

然而近年有學者發現,該算法給黑人帶來的高再犯風險評分是白人的兩倍,在洛杉磯市,一名輕微犯罪的黑人婦女被標記為“高風險”,而一名曾兩次武裝搶劫的白人被標記為“低風險”,而結果也證明那位婦女並沒有犯罪,但那名男子則繼續進行盜竊,這一風險評估產品目前在美國引起了黑人團體廣泛的質疑。

六、形形色色的人工智障

事實上,算法造成的啼笑皆非甚至危險的故事廣泛存在,至少在現階段,在很多領域,人工智能在某些時候只能稱之為人工智障——

美國911以後反恐成為國家安全的重點,美國安全部門會根據姓名、出生地、宗教信仰、人臉識別算法、歷史行為數據——例如所有旅行數據等等,會對每一位航空旅客是恐怖分子的嫌疑度進行打分,而經常出現一些無辜的人因為疑似恐怖分子,而經常在機場被覊留檢查,多次錯過飛機,這樣的事件每年會超過500起;

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

谷歌的安卓系統會自帶一個App——Photos,這個加入了人工智能算法的應用能自動識別人臉、物品等,功能十分強大,然而2015 年6月,一位網民在Twitter上發帖稱:“谷歌,我的女朋友不是大猩猩”,原來,谷歌Photos將他女朋友的照片識別成了大猩猩;

Facebook具有一項稱為“回憶”的功能,可以向用戶突出顯示前幾年在此日期發生的事情,想起令人難忘的回憶,但Facebook還是低估了一些極端情況,例如它會在家人死亡的週年紀念日顯示家人的照片,或者它可能會要求自己向已經去世的朋友說生日快樂。

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

2011年,一本有關蒼蠅的生物學教科書在亞馬遜上的定價為2300萬美元。後來發現原因是兩個賣家,他們設置了算法來觀察彼此的價格,然後重置自己的價格。

2012年,《華爾街日報》報導了辦公用品公司史泰博的算法歧視行為,史泰博先判斷用戶所在的位置附近有沒有賣很多賣辦公用品的實體店,如果20公里之內沒有,則判斷用戶大概率只能在網上買,於是它的網上商城就會給這些顧客顯示一個很高的價格,在這個場景裡,它針對的不是一個人,而是這個區域裡的一群人,即使附近的人互相交流也看不出來。

中國很多城市的智能交通攝像頭配備了人工智能算法,用來檢測和識別在紅燈時亂穿馬路者,然而最近寧波的攝像頭意外曝光了格力總裁董明珠亂穿馬路的照片,原來攝像頭將董明珠在公交車廣告上的頭像識別成了行人;

人工智能還是人工智障?帶你看看大型算法翻車現場
人工智能還是人工智障?帶你看看大型算法翻車現場

2018年3月20日凌晨,Uber公司在美國坦佩市進行自動駕駛道路測試時,撞到一名叫伊萊恩的49歲中年女子,致後者當場死亡,當時,伊萊恩正走在人行橫道,汽車在發生撞擊前5.6秒鐘將其錯誤識別為汽車,撞擊前5.2秒時又將其識別為其他物體,此後系統發生了混亂,在“汽車”和“其他”之間搖擺不定,浪費了大量的時間,因此車輛沒有及時剎車,釀成悲劇;

好,看到了如此多“人工智能”變“人工智障”的車禍現場,我們需要思考的是——這些匪夷所思的問題是如何產生的?看過衛夕長文的朋友都會很熟悉,衛夕通常更感興趣的是背後那個更加深層次的底層邏輯,接下來我們就一起看一看算法故障背後的原因,我把它總結為三類——

1.算法本身或者算法背後的人產生技術錯誤——只要是人寫的算法,就一定有出錯的概率,比如德國居民那個凌晨發飆的智能音箱、失控的Uber自動駕駛汽車就是程序上的Bug導致的,這一類我們克服的辦法其實相對簡單。但對於另一種人為算計消費者的算法有時候可能我們就無能為力了,比如上邊的辦公用品網站史泰博的價格歧視;滴滴曾經也被公眾投訴“同一段距離不同的人打車價格不一致”的“大數據殺熟”現象,無論真實與否,這類問題往往很難識別,因此也加大了監管的難度;

2.算法對於人性部分的忽略——你可能聽過這個段子:一個美女通過一個最現代的人工智能設備找男朋友,輸入條件是:1、要帥;2、有車,人工智能給出的結果是象棋;這儘管是一個段子,但從某種意義上也說明了現在的人工智能離真正理解人類的感情和行為依然有巨大的鴻溝,Facebook提醒你給去世的親人發生日祝福背後本質的原因在於AI無法真正理解死亡對於人類意味著什麼;

3.算法訓練數據本身的偏見——目前人工智能的基本邏輯是先構建一個合適的機器學習模型,然後用大量的數據去訓練模型,然後用訓練好的模型再來預測新的數據,這裏邊有一個非常重要前提就是輸入數據的重要性,比如上邊再犯罪率的預測之所以產生問題就是因為輸入的數據中本身就存在偏見,如果現實世界數據本身就存在偏見,那麼預測結果也一定會有偏見;

總結一下,人工智能的大趨勢必然會繼續發展,但我們也需要清醒地意識到它現階段的侷限性和問題,不要誇大和渲染它的神奇性,如何從系統的角度解決算法帶來的這些匪夷所思的問題,歡迎在留言區發表你的看法!

作者簡介:

衛夕:互聯網專欄作者、商業產品經理,專門生產硬核互聯網內容,致力於用簡潔的語言剖析互聯網及廣告的底層邏輯。

封面圖來自pexels

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪