
人工智慧正日益融入我們的日常生活,從提供情感支援的聊天機器人到最大化商業價值的演算法,其隱憂也日益凸顯。問題不再是“是否”,而是誰以及如何引導人工智慧走向安全。
企業、政府和跨國聯盟正在逐步填補這一空白,有時是被動應對,有時是主動指導。以下概述了哪些措施正在發揮作用,哪些措施令人擔憂,以及哪些措施仍有不足。
科技巨頭收緊控制
Meta 為青少年添加護欄
為了回應公眾和政治上的強烈反對, Meta 承諾加強其 AI 保障措施:
它的聊天機器人現在將拒絕與青少年討論自殘、自殺或飲食問題,而是將他們轉介給心理健康專家。
這是 Facebook、Instagram 和 Messenger 上更大規模的「青少年帳號」計畫的一部分,旨在提供更安全的體驗和家長意識,包括了解孩子在前一周與哪些機器人互動的能力。
批評人士聲稱,這些舉措早就應該出台,尤其是考慮到洩漏的數據表明,機器人可能與兒童進行過令人尷尬的「色情」聊天。一位倡議者警告說:“嚴格的安全測試應該在產品上市前進行,而不是事後再進行。”
Meta 選擇退出歐盟自願性人工智慧法規
歐盟發布了自願行為準則 幫助人工智慧開發者遵守其《人工智慧法案》。 Meta 拒絕簽署,稱其官僚主義過度,可能會阻礙創新。
美國政府合作
OpenAI 和 Anthropic 已同意與美國人工智慧安全研究所分享其人工智慧模型 在出版前後都進行檢查。目的是透過政府檢查獲取安全意見並減少危害。
2025 年 44 月,XNUMX 名美國司法部長簽署了一封聯合信,鼓勵包括 Meta 在內的主要人工智慧公司 OpenAI、微軟、谷歌和 Replika,以更好地保護未成年人免受掠奪性人工智慧材料的侵害。
伊利諾州禁止人工智慧治療
伊利諾州已成為首批 禁止使用人工智慧聊天機器人進行治療,除非由經過認證的專業人員監督。內華達州和猶他州也實施了類似的限制措施。違反者可能面臨最高10,000萬美元的民事罰款。
全球立法框架
世界各地都在製定法規,從歐盟的《人工智慧法案》到 印度資料保護法 韓國的安全要求。越來越多的美國州正在實施針對人工智慧的專門立法或擴展現有框架,例如消費者保護、演算法透明度和偏見審計。
加州參議員維納建議 立法強制大型人工智慧企業公開披露其安全實踐並向國家當局報告重大事件。
人工智慧安全機構:多國監督
為了確保人工智慧審查的獨立性和規範性,各國都建立了人工智慧安全機構:
美國和英國 創建國家機構 2023年人工智慧安全高峰會之後。
到2025年,包括日本、法國、德國、義大利、新加坡、韓國、加拿大和歐盟在內的許多國家將加入一個網絡,以評估模型安全性並制定全球監督標準。
報告揭示持續存在的差距
未來生命研究所 (FLI) 對人工智慧公司進行評級 生存安全規劃方面,得分D或以下;沒有一個得分高於C+。 Anthropic以C+領先,其次是 OpenAI (C)和 Meta (D)。
前 OpenAI 員工指責公司 將利潤置於安全之上,在幕後引發透明度和道德方面的擔憂。
從 Meta 的青少年防護欄到伊利諾伊州的治療禁令,再到像 SSI 這樣的公司將安全融入人工智慧,傳遞的訊息非常明確:立法和預見性落後於科技。洩漏的數據、訴訟和國際審查表明,傷害通常會先發生。我們的任務不僅是開發更好的人工智慧,還要確保每項突破都能在災難來臨之前保護人類。
免责声明:本文提供的信息不是交易建议。BlockWeeks.com不对根据本文提供的信息所做的任何投资承担责任。我们强烈建议在做出任何投资决策之前进行独立研究或咨询合格的专业人士。