• <li id="yeaqi"><button id="yeaqi"></button></li>
  • <fieldset id="yeaqi"></fieldset>
    <fieldset id="yeaqi"><table id="yeaqi"></table></fieldset>

    •  

      自對齊能否駕馭“狂奔”的AI_天天快消息
      發(fā)布時間:2023-05-23 13:34:27 文章來源:科技日報
      自對齊能否駕馭“狂奔”的AI

      自Open AI推出ChatGPT大模型以來,AI大模型進入到公眾視野,探討熱度飆升,百度、騰訊、阿里等互聯(lián)網(wǎng)巨頭也紛紛公布了其對AI大模型的投資與布局路線圖。

      然而,在一片火熱中,也有不少科技巨頭表達了對AI大模型的擔憂。利用人工智能寫論文、制作虛假圖片……在給人類帶來便利的同時,“稚嫩”的人工智能技術也暴露出許多安全隱患問題。據(jù)媒體報道,被譽為“人工智能教父”的杰弗里·辛頓已從谷歌辭職,只為完全自由地談論AI大模型等人工智能技術所帶來的危險。

      狂野生長的AI大模型,真的管不住了嗎?來自美國卡內基梅隆大學語言技術研究所、國際商業(yè)機器公司研究院等機構的研究人員提出了一種全新的方法——自對齊。該方法結合了原則驅動式推理和大模型的生成能力,從而使用極少的人類監(jiān)督便能實現(xiàn)AI大模型的“自我監(jiān)管”。


      【資料圖】

      和人類價值觀“對齊”

      目前,即便是最先進的AI大模型,也無法實現(xiàn)自我監(jiān)管,仍需要依賴人類指令以及注釋進行相應的調整。

      “生成式人工智能可以被看作一個預測工具,它主要依靠大量數(shù)據(jù)樣本來預測正確答案。”清華大學交叉信息研究院助理教授、人工智能國際學術交流項目主任于洋表示,所有基于數(shù)據(jù)統(tǒng)計的人工智能模型,對于“答案”的預測都必然有一定的隨機性,而這種隨機性所產(chǎn)生的偏差一旦與人類價值觀、倫理觀、道德觀以及法律法規(guī)等相悖,就需要對該模型進行監(jiān)管、完善。計算科學工作者致力于消除這類偏差,盡量使之與人類的價值觀、倫理、法律、公序良俗等相符,這被稱為“對齊”。

      然而,從統(tǒng)計學的角度看,AI大模型一定會“犯錯”。因此,AI模型對齊的監(jiān)管,不應追求獲得一個不犯錯的完美AI大模型,而是要管理AI大模型產(chǎn)生違規(guī)錯誤的風險。“例如,對話類AI大模型在其對話中,是否會大量出現(xiàn)針對某個地區(qū)的地域歧視。”于洋舉例道,對于AI大模型的監(jiān)管,就是為了避免這類內容出現(xiàn)的概率過高、避免模型的答案系統(tǒng)性發(fā)生整體傾向這類偏誤。

      然而,如果AI大模型嚴重依賴人類監(jiān)督,會造成成本過高、可靠性不足、存在偏向性等問題。因此,以最少的人類監(jiān)督實現(xiàn)AI大模型的自我監(jiān)督成為構建AI大模型的關鍵。

      為了解決這一難題,研究人員提出了一種自對齊的新方法,僅需一個人工定義的小型原則集(規(guī)則),便能引導AI大模型生成答復的正確導向,且能顯著減少對人類監(jiān)督的需求,使其幾乎無需任何額外注釋。AI大模型可以自對齊的設計目標是開發(fā)出有用、可靠且符合人類道德觀念的AI大模型,包括在生成答案時可以反對用戶的有害詢問,并且為表示反對的背后原因提供解釋。

      值得一提的是,此前一些AI大模型至少需要5萬條注釋,而整個自對齊過程所需的注釋量少于300行,監(jiān)督效率非常高,極大地降低了AI大模型對人類監(jiān)管工作的需求。

      把“打罵”變?yōu)?ldquo;講道理”

      那么,未來AI大模型是否可以實現(xiàn)完全的自我監(jiān)管?于洋表示,AI大模型監(jiān)管的主要方式必然是自動化、機器化、算法化的,因為AI大模型依賴海量數(shù)據(jù)支撐,僅憑人工監(jiān)管是不現(xiàn)實的。但完全的自我監(jiān)督不太可能實現(xiàn),這是因為即使AI學會了相應的人類規(guī)則,但它和人類所掌握的規(guī)則數(shù)量仍然無法比較。同時,人類的思維以及邏輯推理過程具有極高的復雜性,也是AI大模型難以真正“理解”人類的原因之一。

      于洋舉了個例子,現(xiàn)在的AI大模型監(jiān)管就好比教育孩子,現(xiàn)有的人工對齊技術方案,其實都是在“打罵”孩子,也就是用獎勵和懲罰的方式訓練AI什么能做、什么不能做。而真正的教育,是要對孩子講道理,了解為什么有些事情不能做,即要讓AI理解背后的邏輯,理解人類的評判標準。這是一件很難的事情,目前大多數(shù)的AI大模型的訓練和對齊技術的開發(fā),還停留在“打罵”階段,要從“打罵”變成“講道理”,還有很長的路要走。

      “除了技術人員開發(fā)教育AI合規(guī)的技術外,監(jiān)管當局也必須制度化、系統(tǒng)化地從社會合規(guī)和社會影響等方面對AI大模型進行多維度的審計和監(jiān)管。”于洋進一步解釋道,相關行業(yè)及管理部門,需要對AI大模型違背人類價值的概率,有一個系統(tǒng)化的評估,并根據(jù)AI大模型相關產(chǎn)業(yè)的發(fā)展現(xiàn)狀,調整監(jiān)管手段,有針對性地提出監(jiān)管方案,建立動態(tài)、敏捷響應技術前沿變化的監(jiān)管體系。企業(yè)也要建立專門針對AI大模型的監(jiān)管部門,來審核AI大模型中是否包含自我監(jiān)管機制,以及具體到每一個模塊將帶來哪些影響,以此盡量降低AI模型的違規(guī)風險。

      此外,于洋還建議,人工智能的治理,也需要大量的公眾參與,因為和訓練模型尋找漏洞相比,在大量應用實踐中去發(fā)現(xiàn)漏洞、完善AI大模型,顯然更加高效,也能顯著降低AI大模型開發(fā)成本,推動AI大模型在各行各業(yè)的廣泛應用。

      關鍵詞:

      樂活HOT

      娛樂LOVE