歐洲議會通過《人工智慧法》草案,生物辨識、ChatGPT將面臨監管

歐洲議會通過《人工智慧法》草案,生物辨識、ChatGPT將面臨監管

歐洲議會最近通過了一項名為《人工智慧法》《AI Act》的草案,旨在監管人工智慧技術的應用。其中受人矚目由OpenAI開發的ChatGPT強大語言生成模型,不僅能夠回答問題、提供資訊和與用戶對話。本文將探討新的歐洲《人工智慧法》草案政策將對AI技術的使用和應用帶來什麼樣的影響。

AI法的主要內容

該法案劃分了四類風險等級,其中「不可接受的風險」將直接禁止使用特定類型的AI,如操縱人類行為的系統或具有社會信用評級功能的AI;「高風險」類AI系統(例如在關鍵基礎設施或公共服務中使用的AI)則需要遵守嚴格的監管規定,例如進行風險評估和符合透明度要求;「有限風險」和「最低風險」的AI則受到相對輕度的監管。

『人臉生物辨識』也將受到人工智慧法管制

如面部識別等技術,給予了特別的重視。該法規定,任何在公共場所使用遠程生物辨識別系統進行即時識別的行為,屬於「高風險」類別,因此會受到更嚴格的監管。據稱,規定原因是生物辨識系統可能影響個人的隱私權和基本人權。尤其是面部識別技術,一旦被濫用,可能會對個人隱私造成重大威脅,甚至可能導致大規模的監控行為。因此,透過這種法律機制,歐洲議會希望能確保這種生物辨識技術能在不侵犯人權的前提下被適當地使用和監管。同時,這項法案也對例外情況做了一些規定,例如在特定情況下,可能會允許警察和其他執法部門使用面部識別技術,但這需要受到法院或其他獨立行政機構的特殊許可。

ChatGPT將面臨何種管理與限制?

該法案也要求ChatGPT等技術的開發者和使用者遵守嚴格的隱私保護規定,確保用戶的個人數據不被濫用或洩露。其次,這項法案也請開發者和使用者確保ChatGPT的運作符合道德和倫理準則,避免生成具有偏見、歧視或不當內容的回答。最後,新的歐洲政策還強調了對ChatGPT等技術的透明度要求,開發者和使用者需要能夠解釋和證明ChatGPT生成的回答和行為的來源和依據。

新法將監管人工智慧技術

該法案的目標是確保人工智慧的開發和使用符合倫理、透明度和隱私保護的標準。這項法案將對人工智慧技術進行管制,以防止其被濫用而導致不當的影響。一旦法案通過,違規的公司將被處以最高3000萬歐元(3300 萬美元)或公司全球年收入6%的罰款。然而,這些新的法規也帶來了一些挑戰,開發者和使用者需要在確保技術發展的同時,遵守相關法律法規以及倫理和社會責任的要求。這將需要開發者和使用者與監管機構合作,找到一種平衡,以確保ChatGPT等人工智慧技術在合理的管理和限制下得以發展和應用。