2018年,人工智能在無人駕駛汽車領(lǐng)域“連續(xù)撞車”,多家公司出現(xiàn)了安全事故。人工智能技術(shù)在安全、隱私等諸多方面面臨挑戰(zhàn),人們開始質(zhì)疑,“人工”和“智能”究竟能否和諧相處?
在這種焦慮情緒的影響下,人們開始思考人工智能未來的走向。日前在北京召開的新興科技峰會上,這一話題受到專家的廣泛關(guān)注。
在互聯(lián)網(wǎng)時代,每個人都可能受到網(wǎng)絡(luò)流言的困擾,很多謠言集中在食品安全、健康等領(lǐng)域,有可能產(chǎn)生非常惡劣的影響。
以醫(yī)療信息為例,用戶在搜索信息時,由于認(rèn)知不足,很難判斷這些信息是不是完整、準(zhǔn)確以及信息源是什么,這導(dǎo)致了“魏則西事件”“權(quán)健火療”等悲劇的發(fā)生。
“醫(yī)療信息的檢索結(jié)果關(guān)乎人的生命,用戶必須整理這些信息,避免被有特殊目的的人推送錯誤信息而導(dǎo)致嚴(yán)重后果。”美國賓夕法尼亞大學(xué)計算機和信息科學(xué)系教授丹·羅斯說。
羅斯認(rèn)為,人工智能中的自然語言處理技術(shù)可以幫助人們解決這一社會問題,它能夠幫助人們?nèi)チ私庑畔⒃矗私庹Z意背后的證據(jù),擔(dān)起“謠言偵探”的重任。
信息源包括信息的來源、目的、內(nèi)容等,而對于各種說法背后的證據(jù),可以使用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類,將大量的信息按支持度的強弱組織成證據(jù)鏈,了解不同說法的立場,檢查不同說法的真實性。
羅斯也坦言,目前自然語言處理技術(shù)還面臨很多挑戰(zhàn),比如語意的模糊性,一詞多義或者一種意思有多種說法,在這些情況下的理解完全取決于具體的應(yīng)用場景。但他仍然呼吁人們多關(guān)注這個領(lǐng)域,嚴(yán)堵謠言的擴散。
峰會上,也有專家認(rèn)為,人工智要真正“適應(yīng)”人類社會,還需要一段很長的路。
卡內(nèi)基梅隆大學(xué)計算機科學(xué)學(xué)院機器人研究所教授凱迪婭·斯凱洛認(rèn)為,機器人終將出現(xiàn),會和人類一起工作、戰(zhàn)斗、照顧老人,但是在這一天來臨前,人們還需要在社會、心理方面做大量工作。
比如讓機器人從事照顧老人的工作,它需要知道在進(jìn)入房間前敲門;如果老人突發(fā)疾病,它又要能夠直接闖入,并快速把老人送到醫(yī)院,需要超速時,它也要打破交通限速的規(guī)則。“這些決策都帶有很大的不確定性,需要人們提前規(guī)定優(yōu)先級。”斯凱洛說。
有時機器人會干出一些“啼笑皆非”的事。有研究發(fā)現(xiàn),在清理垃圾時,如果程序告訴機器人清理得越多,分?jǐn)?shù)就越高,機器人會為了獲得高分,把已經(jīng)清理好的垃圾倒掉,再重新清理一次。
斯凱洛認(rèn)為,如果只讓機器人去工作,那么它們很好控制;一旦人類要與它們有更多互動,未來使用機器人會變得越來越有挑戰(zhàn)性。
“想讓機器人在社會中的被接受程度更高,它們必須要有社會性,它們的行為應(yīng)該是我們可接受的,要符合社會行為的準(zhǔn)則。”斯凱洛說。
摘自《中國科學(xué)報》