July 11th, 2023
從 Fast.ai 看到這篇貼文: AI Safety and the Age of Dislightenment
摘要:
嚴格AI模型授權和監控建議可能無效或產生反效果,在捍衛社會和使社會自衛之間取得平衡是微妙的。我們應主張開放、謙卑和廣泛諮詢,制定更好回應,使其與原則和價值相一致,了解更多關於這潛力的技術的過程中不斷演進。
心得:
裡面論文都是這篇: FAR (Frontier AI Regulation: Managing Emerging Risks to Public Safety) https://arxiv.org/abs/2307.03718
- 加強GPAI監管只會增加進入者門檻,讓競爭者更少。
- 規範使用會比開發對於社會安全更有幫助。
- 開源是可以增加多樣性並且降低大型公司的危險性。
目前的進展正因為大眾的未知與沒有監管,所以應該要謹慎避免新科技恐慌帶來的不必要的限制。 參考:歐盟監管開源人工智能的嘗試適得其反
https://www.brookings.edu/articles/the-eus-attempt-to-regulate-open-source-ai-is-counterproductive/