五月丁香六月综合在线观看,91国在线国内在线播放,麻豆国产在线视频区,国产二区三区

      <object id="iqmuo"></object>
    1. <object id="iqmuo"></object>
    2. 獲諾貝爾物理學獎的“AI教父”,為何后悔研究AI?
      2024-10-10 09:55:00 來源:紅星新聞

      近日,瑞典皇家科學院宣布,將2024年諾貝爾物理學獎授予美國普林斯頓大學的約翰·霍普菲爾德和加拿大多倫多大學的杰弗里·辛頓,以表彰他們“為推動利用人工神經(jīng)網(wǎng)絡進行機器學習做出的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”。

      諾貝爾獎評獎委員會表示:“今年物理學獎得主取得的突破建立在物理科學的基礎(chǔ)上。他們?yōu)槲覀冋故玖艘环N全新的方式,讓我們能夠利用計算機來幫助和指導我們,應對社會面臨的許多挑戰(zhàn)。”

      的確,兩位科學家的研究領(lǐng)域和成果,看上去有些“不物理”。比如,辛頓被視為由ChatGPT掀起的本輪AI技術(shù)躍進背后的奠基性科學家,被譽為“AI教父”。而關(guān)注“AI教父”獲諾貝爾物理學獎之時,辛頓的“AI威脅論”或許更值得關(guān)注。

      辛頓曾在谷歌工作十年,2023年5月,他從谷歌離職后,便持續(xù)公開呼吁謹慎對待AI技術(shù),成為旨在引導AI系統(tǒng)、使其行為符合設(shè)計者利益和預期目標的“AI對齊派”的代表。他在社交平臺上發(fā)文表示,自己離開谷歌是為了可以“公開地談論AI的危險”。辛頓曾直言,“我用平常的借口來安慰自己:就算我沒做,別人也會做的……很難想象,你能如何阻止壞人利用它(AI)來做壞事。”

      這樣的言論并非危言聳聽,現(xiàn)已發(fā)生多起AI造假和騙局事件,而且AI風險涉及社會和個人生活的方方面面。正如有專家所言,“當新聞、圖像、音頻、視頻——任何事情都可以偽造時,那么在那個世界里,就沒有什么是真實的”。

      對于AI的危險和人們使用AI的安全性,國際社會已有共識。2021年,聯(lián)合國教科文組織通過首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》。其中提出,發(fā)展和應用人工智能要體現(xiàn)出四大價值,即尊重、保護和提升人權(quán)及人類尊嚴,促進環(huán)境與生態(tài)系統(tǒng)的發(fā)展,保證多樣性和包容性,構(gòu)建和平、公正與相互依存的人類社會。該建議書還包含了規(guī)范人工智能發(fā)展應遵循的原則,以及在原則指導下人工智能應用的領(lǐng)域等。

      研發(fā)和應用AI,要遵循適宜性(相稱性)、安全、公平、透明、保護隱私和公正等原則。比如,從適宜性,也即相稱性和合理性來看,任何一項AI產(chǎn)品的研究和使用,都應證明選擇使用人工智能系統(tǒng)和選用哪種人工智能方法具有合理性。正如當下生物醫(yī)學研究和醫(yī)院治療病人,在涉及生命和安全時要經(jīng)過倫理委員會的討論和批準,AI產(chǎn)品的發(fā)展也需經(jīng)歷必要的程序和步驟,避免造成社會恐慌、傷害、損失甚至災難。

      未來,任何研究AI并推出AI產(chǎn)品的機構(gòu)和個人,都應當以《人工智能倫理問題建議書》進行評估,而且在推向社會后,各國也需要有相應AI倫理指南的法律進行監(jiān)管。如此,才能讓AI最大程度地造福社會,最低程度地傷害社會。

      • 為你推薦
      • 公益播報
      • 公益匯
      • 進社區(qū)

      熱點推薦

      即時新聞

      武漢