
速途網5月30日訊 ChatGPT等生成式人工智能的迅猛發(fā)展推動了經濟合作與發(fā)展組織(OECD)重新審視其人工智能(AI)指導方針的計劃。
2019年5月,OECD發(fā)布了首個AI政府間政策指導方針,旨在確保AI的系統(tǒng)設計符合公正、安全、公平和值得信賴的國際標準。然而,這些指導方針并不具備法律約束力。
最近,OECD秘書長馬提亞斯·科爾曼在接受采訪時透露,該組織正考慮修訂2019年制定的AI原則,并計劃于6月份展開新指南的討論,力爭在年底前取得成果。
據了解,OECD可能會考慮調整措辭,以反映AI領域的變化,并引入新的原則。
去年11月,美國科技公司OpenAI推出了一款名為ChatGPT的聊天機器人,僅在短短兩個月內就吸引了1億月活躍用戶,成為歷史上增長最快的消費者應用程序,也促使谷歌等科技巨頭紛紛涉足AI領域。
盡管人們對AI帶來的新機遇充滿期待,但也對這項技術的潛在風險存在擔憂。例如,在訓練AI時,科技公司需要使用大量數據,這可能會侵犯個人隱私。
為了解決這些問題,OECD計劃修訂指導方針,以更好地應對當前AI技術的挑戰(zhàn)。通過調整措辭和引入新的原則,他們希望能夠跟上AI領域的發(fā)展,并確保AI的應用在公正、安全和透明的基礎上進行。
OECD的舉措被視為在全球范圍內加強AI監(jiān)管的一種努力。其他國際組織和國家也在積極探索類似的舉措,以應對AI技術帶來的挑戰(zhàn)。
對于ChatGPT等生成式人工智能的快速發(fā)展,OECD的新指南將考慮如何更好地引導和規(guī)范這一新興領域。同時,他們也將關注隱私保護和數據使用的問題,以確保人工智能的發(fā)展符合道德和法律的要求。