近日,瑞典皇家科學院宣布,將2024年諾貝爾物理學獎授予美國普林斯頓大學的約翰·霍普菲爾德和加拿大多倫多大學的杰弗里·辛頓,以表彰他們“為推動利用人工神經(jīng)網(wǎng)絡進行機器學習做出的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”。
諾貝爾獎評獎委員會表示:“今年物理學獎得主取得的突破建立在物理科學的基礎(chǔ)上。他們?yōu)槲覀冋故玖艘环N全新的方式,讓我們能夠利用計算機來幫助和指導我們,應對社會面臨的許多挑戰(zhàn)。”
的確,兩位科學家的研究領(lǐng)域和成果,看上去有些“不物理”。比如,辛頓被視為由ChatGPT掀起的本輪AI技術(shù)躍進背后的奠基性科學家,被譽為“AI教父”。而關(guān)注“AI教父”獲諾貝爾物理學獎之時,辛頓的“AI威脅論”或許更值得關(guān)注。
辛頓曾在谷歌工作十年,2023年5月,他從谷歌離職后,便持續(xù)公開呼吁謹慎對待AI技術(shù),成為旨在引導AI系統(tǒng)、使其行為符合設(shè)計者利益和預期目標的“AI對齊派”的代表。他在社交平臺上發(fā)文表示,自己離開谷歌是為了可以“公開地談論AI的危險”。辛頓曾直言,“我用平常的借口來安慰自己:就算我沒做,別人也會做的……很難想象,你能如何阻止壞人利用它(AI)來做壞事。”
這樣的言論并非危言聳聽,現(xiàn)已發(fā)生多起AI造假和騙局事件,而且AI風險涉及社會和個人生活的方方面面。正如有專家所言,“當新聞、圖像、音頻、視頻——任何事情都可以偽造時,那么在那個世界里,就沒有什么是真實的”。
對于AI的危險和人們使用AI的安全性,國際社會已有共識。2021年,聯(lián)合國教科文組織通過首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》。其中提出,發(fā)展和應用人工智能要體現(xiàn)出四大價值,即尊重、保護和提升人權(quán)及人類尊嚴,促進環(huán)境與生態(tài)系統(tǒng)的發(fā)展,保證多樣性和包容性,構(gòu)建和平、公正與相互依存的人類社會。該建議書還包含了規(guī)范人工智能發(fā)展應遵循的原則,以及在原則指導下人工智能應用的領(lǐng)域等。
研發(fā)和應用AI,要遵循適宜性(相稱性)、安全、公平、透明、保護隱私和公正等原則。比如,從適宜性,也即相稱性和合理性來看,任何一項AI產(chǎn)品的研究和使用,都應證明選擇使用人工智能系統(tǒng)和選用哪種人工智能方法具有合理性。正如當下生物醫(yī)學研究和醫(yī)院治療病人,在涉及生命和安全時要經(jīng)過倫理委員會的討論和批準,AI產(chǎn)品的發(fā)展也需經(jīng)歷必要的程序和步驟,避免造成社會恐慌、傷害、損失甚至災難。
未來,任何研究AI并推出AI產(chǎn)品的機構(gòu)和個人,都應當以《人工智能倫理問題建議書》進行評估,而且在推向社會后,各國也需要有相應AI倫理指南的法律進行監(jiān)管。如此,才能讓AI最大程度地造福社會,最低程度地傷害社會。