上週,參議院多數黨領袖查克·舒默 (Chuck Schumer) 宣布開始舉行一系列有關人工智能的立法者簡報會,重點關注
當今人工智能的狀況,
人工智能的發展方向,以及
國家安全影響。
其他政府 — — 包括歐盟和中國 — — 也開始製定自己獨特的人工智能監管方法:這是可以理解的,畢竟高盛最近預測,多達 3 億個工作崗位(佔當前工作任務的四分之一)面臨風險。越來越多的公司採用人工智能來提高利潤率,導致高薪工人大規模裁員。
雖然監管工作仍處於起步階段,並且因地區而異,但一旦實施,監管將決定發展軌跡,重要的是可以減輕最具破壞性的人工智能用例帶來的一些風險; 這樣做還可能大幅減少對人工智能服務的潛在需求,並對上行“用例”產生不利影響,而上行“用例”目前是下一個市場泡沫,而且實際上是無限的。
儘管如此,摩根士丹利策略師 Ariana Salvator 在最近的一份報告中寫道(可供專業訂閱者使用) 那 目前對於世界各國政府應如何參與人工智能尚未達成共識”也許最重要的是他們應該如何平衡促進創新與保護用戶的安全和隱私。”因此,摩根士丹利繼續仔細關注這個領域,”因為有關人工智能監管的不斷增加的新聞流可能預示著市場可能領先於自己。”
本著這種精神,該銀行強調了投資者在人工智能監管方面需要了解的兩個關鍵事項:
全球監管的前進道路是不平衡且不確定的。 目前,歐盟在監管工作方面領先於美國,歐盟議會已批准其人工智能法案草案,該法案旨在將人工智能用例分類到風險管理框架中,並根據風險級別實施不同級別的政府監管。 在美國,到目前為止,聯邦機構已經發布了指導方針並採取了單獨的執法行動。 國會仍處於學習模式, 儘管少數參議員表示有興趣限制該技術的某些領域,例如確保第 230 條責任保護不適用。 因此,隨著人工智能不斷跨境發展,各國政府還遠遠沒有調整其監管方法。
政府監管——如果按照提議實施——可能會減輕與人工智能相關的一些最嚴重的風險。 MS 認為政府監管是一個過濾器,可以有效地篩選出新技術時想像到的一些最嚴厲的場景。 例如,擬議的歐盟人工智能法案實施了一種風險管理方法,對某些人工智能用例進行更嚴格的政府監督,同時簡單地禁止屬於“不可接受”風險類別的其他用例,例如實時生物特徵篩查或預測警務系統。 因此, 現在提議的監管可以發揮重要作用,決定哪些最具破壞性的用例將真正實現,哪些將隨著政府的介入而被邊緣化。 因此,投資者在考慮人工智能對整個市場的顛覆時應注意這些限制。
更多內容在 摩根士丹利人工智能指南 專業訂閱者可以在通常的地方使用。