在機器計算的過程中,人類僅被視為“輸入信號”,而不是會思考、能感受的存在。當算法開始編寫算法,人類將被排斥在圈子之外,任由機器人為我們做決定。
算法在我們的生活中可謂無處不在,可以幫助我們完成各種任務(wù)。
石家莊網(wǎng)絡(luò)優(yōu)化言比如,它能根據(jù)你的心情為你挑選電影,推薦你可能感興趣的商品,能幫你打車,告訴你駕車線路,幫你在婚戀網(wǎng)站找到合適的交往對象,等等等等。它幾乎存在于任何我們可以想象的領(lǐng)域。
這些電腦代碼原本是為了生活便利而設(shè)計的。事實上,它們的確為我們的生活提供了不少便捷。因此,有一部分人認為,算法為我們提供了很多積極的解決方案,應(yīng)該在社會中不斷擴大它的運用。
不過另一方面,算法有可能會使人類喪失頭腦的判斷能力,不斷地依賴軟件去代替頭腦思考。畢竟,既然有現(xiàn)成的軟件能替我們思考,我們何樂而不為呢?
美國皮尤研究中心與依隆大學互聯(lián)網(wǎng)創(chuàng)想中心共同發(fā)布了一篇關(guān)于算法的利弊影響的調(diào)查報告。該調(diào)查訪問了1300位技術(shù)專業(yè)人員、學者、商人、政府官員,詢問了他們對于算法可能帶來的影響有什么看法。當問及算法對人類的決策技能將產(chǎn)生何種影響,不少業(yè)界人士表示出他們的擔憂。
算法的進步使科技公司與政府部門得以收集、儲存、分類、分析大量數(shù)據(jù)。許多受訪專家表示,人類*初設(shè)計數(shù)據(jù)建模與分析,是為了提高做事效率與盈利能力,起初人們對它可能帶來的社會影響沒有過多考慮。受訪專家們認為,在機器計算的過程中,人類將被視為“輸入信號”,而不是會思考、能感受、真實的、變化中的存在。隨著算法的不斷進化,我們的社會將成為一個僅由邏輯推動的、有缺陷的社會。當算法開始編寫算法,人類將被排斥在圈子之外,任由機器人做決定。
來看看部分受訪專家們是怎么說的。
克萊姆森大學人本計算中心的助理教授巴特·尼吉南伯格表示,算法使人們太易于跟從其建議,或者說,太難于超越其建議。
石家莊網(wǎng)絡(luò)建設(shè)消息算法將使自己逐漸演變成羅伯特·默頓所說的“自我應(yīng)驗預言”,把使用者變成僵尸,只知道消費易于消費的產(chǎn)品。
新美國基金會數(shù)字權(quán)利排名項目的負責人麗貝卡·麥克金農(nóng)認為,算法使機器快速學習,使它們變得越來越難懂,即使其創(chuàng)造者都難以理解它的邏輯,只能跟從其命令做決定,并產(chǎn)生一定的結(jié)果。電腦缺乏責任心,又具有不透明性,這是非??膳碌摹H欢硪环矫?,算法給人與信息的關(guān)系帶來了革命,它能救人性命,也能賦權(quán)于人。
卡內(nèi)基梅隆大學人機交互研究所的副教授洪宜安說,80年代業(yè)界有句話說,“若輸入垃圾數(shù)據(jù),則輸出亦為垃圾數(shù)據(jù)”,這句話在當今仍然適用。石家莊網(wǎng)絡(luò)建設(shè)消息當今數(shù)據(jù)的**數(shù)量、電腦速度,可能給我們對數(shù)據(jù)造成正確的假象。舉一個平凡的例子,有人嚴格按照GPS的指示駕車,結(jié)果卻開到河里去了。
未來主義者、咨詢師阿瑪麗·德·席爾瓦米切爾說,預測性建模會限制個人的自我表達,從而限制創(chuàng)新與發(fā)展。這將使我們培養(yǎng)出“被寵壞的一代”。這些人當中,只有頂層精英懂得創(chuàng)新,而社會大眾將失去復雜的決策技能。
美國未來研究所執(zhí)行總監(jiān)瑪麗娜·戈爾比斯表示,用想象代替打字,就能搜索到一組文章,一按鈕就能得到一篇圍繞某一話題的敘述性文章,這就相當于我們每個人都有很多的科研助手以及其他助手。另外,算法還有一種潛質(zhì),即揭露雇傭、工作描述及其他文本信息中的偏見。
麻省理工學院計算機科學的教授大衛(wèi)·卡爾格認為,算法公平、算法歧視的問題,是非常重值得重視的,現(xiàn)在我們已經(jīng)注意到這一問題。只要我們主觀上希望擁有不帶歧視的算法,我們就能夠設(shè)計出不帶歧視的算法。
《未來的人類而種族》一書的作者丹尼爾伯林特認為,比起人類的咨詢?nèi)藛T、管理人員,算法更不容易受制于一些不可告人的企圖。因此,算法的輸出信號從社會、經(jīng)濟角度來說都是**的,容易達到我們對它的預期。相比之下,人類的建議與決定才是更可疑的。