三级黄色在线视频中文,国产精品一二三区,在线观看三级,成人午夜久久,日韩国产一区二区,韩日免费av,日韩成人一级

如何用人類智慧應對人工智能挑戰(zhàn)?

來源:網(wǎng)絡

點擊:897

A+ A-

所屬頻道:新聞中心

關(guān)鍵詞: 人工智能,人類,挑戰(zhàn)

     關(guān)于人工智能的變革威力,人們提出了很多大膽的設(shè)想。但我們也有必要聽聽一些嚴重警告。上月,微軟研究院(Microsoft Research)首席研究員凱特?克勞福德(Kate Crawford)警告稱,如果被威權(quán)政府濫用,威力與日俱增的人工智能可能會釀成一場“法西斯夢”。

    克勞福德在SXSW科技大會上表示:“就在我們看到人工智能的發(fā)展速度呈階梯型上升時,其他一些事情也在發(fā)生:極端民族主義、右翼威權(quán)主義和法西斯主義崛起?!?/p>

    她表示,人工智能可能帶來龐大的數(shù)據(jù)登記冊、針對特定人口群體、濫用預測型警務以及操縱政治信仰。

    克勞福德并不是唯一對強大的新技術(shù)被錯誤使用(有時以意想不到的方式)感到擔憂的人。英國政府首席科學顧問馬克?沃爾波特(Mark Walport)警告稱,在醫(yī)學和法律等涉及細膩人類判斷的領(lǐng)域不假思索地使用人工智能,可能帶來破壞性結(jié)果,并侵蝕公眾對這項技術(shù)的信任。

    盡管人工智能有增強人類判斷的潛力,但它也可能帶來有害的偏見,并產(chǎn)生一種錯誤的客觀感覺。他在《連線》(Wired)雜志的一篇文章中寫道:“機器學習可能會內(nèi)部化在量刑或醫(yī)療歷史中存在的所有隱性偏見,并通過它們的算法外部化。”

    就像一直以來的情況那樣,識別危險仍然要比化解危險容易得多。沒有底線的政權(quán)永遠不會遵守限制人工智能使用的規(guī)定。然而,即便在正常運轉(zhuǎn)的基于法律的民主國家,框定適當?shù)幕貞埠芗帧⑷斯ぶ悄芸梢宰龀龅姆e極貢獻最大化,同時將其有害后果降至最低,將是我們這個時代最艱巨的公共政策挑戰(zhàn)之一。

    首先,人工智能技術(shù)很難理解,其用途往往帶有神秘色彩。找到尚未被行業(yè)挖走、且不存在其他利益沖突的獨立專家也變得越來越難。

    受到該領(lǐng)域類似商業(yè)軍備競賽的競爭的推動,大型科技公司一直在爭奪人工智能領(lǐng)域很多最優(yōu)秀的學術(shù)專家。因此,很多領(lǐng)先研究位于私營部門,而非公共部門。

    值得肯定的是,一些領(lǐng)先科技公司認識到了透明的必要性,盡管有些姍姍來遲。還有一連串倡議鼓勵對人工智能展開更多政策研究和公開辯論。

    特斯拉汽車(Tesla Motors)創(chuàng)始人埃隆?馬斯克(Elon Musk)幫助創(chuàng)建了非盈利研究機構(gòu)OpenAI,致力于以安全方式開發(fā)人工智能。

    亞馬遜(Amazon)、Facebook、谷歌(Google) DeepMind、IBM、微軟(Microsoft)和蘋果(Apple)也聯(lián)合發(fā)起Partnership on AI,以啟動更多有關(guān)該技術(shù)實際應用的公開討論。

    谷歌DeepMind聯(lián)合創(chuàng)始人、Partnership on AI聯(lián)合主席穆斯塔法?蘇萊曼(Mustafa Suleyman)表示,人工智能可以在應對我們這個時代一些最大挑戰(zhàn)方面發(fā)揮變革性作用。但他認為,人工智能的發(fā)展速度超過我們理解和控制這些系統(tǒng)的集體能力。因此,領(lǐng)先人工智能公司必須在對自己問責方面發(fā)揮更具創(chuàng)新和更主動的作用。為此,這家總部位于倫敦的公司正在嘗試可驗證的數(shù)據(jù)審計,并將很快宣布一個道德委員會的構(gòu)成,該委員會將審查該公司的所有活動。

    但蘇萊曼指出,我們的社會還必須設(shè)計更好的框架,指導這些技術(shù)為集體利益服務。他在接受英國《金融時報》Tech Tonic播客的采訪時表示:“我們必須能夠控制這些系統(tǒng),使他們在我們希望的時間做我們想做的事,而不會自說自話?!?/p>

    一些觀察人士表示,做到這點的最佳方法是調(diào)整我們的法律制度,確保人工智能系統(tǒng)可以向公眾“解釋”。從原則上說,這聽上去很簡單,但實際做起來可能極為復雜。

    布魯塞爾自由大學(Free University of Brussels)法律和科技學教授米雷列?希爾德布蘭特(Mireille Hildebrandt)表示,人工智能的危險之一是我們變得過度依賴我們并不完全理解的“不用腦子的智慧”。她認為,這些算法的目的和影響必須是可測試而且在法庭上是可爭論的。她表示:“如果你無法有意義地解釋你的系統(tǒng)的決定,那么你就不能制造它們。”

    我們將需要更多的人類智慧來應對人工智能挑戰(zhàn)。

    (審核編輯: 林靜)

    聲明:除特別說明之外,新聞內(nèi)容及圖片均來自網(wǎng)絡及各大主流媒體。版權(quán)歸原作者所有。如認為內(nèi)容侵權(quán),請聯(lián)系我們刪除。