paint-brush
EU, 규제되지 않은 AI 중단~에 의해@konkiewicz
1,887 판독값
1,887 판독값

EU, 규제되지 않은 AI 중단

~에 의해 Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

너무 오래; 읽다

유럽 AI법은 2024년 말부터 시행된다. 이 법은 AI 시스템을 위험 수준에 따라 분류한다. 고위험 시스템은 투명성 요구 사항을 따라야 합니다. 회사는 교육 데이터 기록을 유지할 책임이 있습니다. 이를 통해 기업은 데이터 프라이버시를 존중하고 추적성을 향상시킬 수 있습니다.
featured image - EU, 규제되지 않은 AI 중단
Magdalena Konkiewicz HackerNoon profile picture

전 세계적인 영향과 대비 방법

소개

지난 1년 동안 유럽의 AI 스타트업들은 해외 경쟁사들을 따라잡으며 인기 있는 ChatGPT에 필적하는 제품을 선보였습니다. 급속한 발전과 개발에 초점을 맞추다 보면 투명성, 윤리, 사용자 영향과 관련된 문제가 뒤로 밀려나는 경우가 있습니다. 그러나 이는 2024년 말부터 시작되는 EU AI법의 시행으로 인해 바뀔 가능성이 높습니다.


그만큼 EU AI법 2024년 3월 유럽의회에서 승인된 법안은 EU 내에서 개발된 AI에 대한 엄격한 규제를 도입합니다. 그러나 그 영향은 유럽 국경을 넘어 유럽 AI 기업뿐만 아니라 EU 시장에 제품을 제공하는 미국 기업을 포함한 국제 기업에도 직접적인 영향을 미칩니다.

누가 영향을 받나요?

EU AI법은 AI 시스템을 위험 수준에 따라 분류합니다. 고위험으로 분류된 시스템은 공중 보건, 안전, 인권 및 사회 복지에 대한 잠재적 영향에 대한 의무적 평가와 함께 투명성 요구 사항을 따라야 합니다. 그들은 차별이 없고 기본적인 인권을 존중하는지 확인하기 위해 편견을 검사할 것입니다.


또한 고위험 시스템 개발자는 규정 준수를 입증하기 위해 교육 방법 및 데이터 세트를 포함한 자세한 문서를 유지해야 할 의무가 있습니다.


GPT-3.5와 유사한 기초 모델은 훈련하는 데 최소 10²⁵ 플롭의 컴퓨팅 성능이 필요한 경우 규제됩니다. 반대로, 오픈 소스 모델에 대해서는 상당한 양보가 있을 것이며, 이는 이러한 유형의 제품을 개발하는 데 인센티브를 제공할 것입니다.


또한 EU AI법에는 금지된 AI 시스템이 나열되어 있습니다. 여기에는 민감한 특성(예: 인종, 종교 등)을 사용한 생체 인식 분류, 얼굴 이미지 스크랩, 직장 및 교육적 감정 인식, 사회적 점수 매기기, 인간 행동 조작, 인간의 취약성을 이용하도록 설계된 시스템이 포함됩니다.


이 법은 또한 위반 사항과 회사 규모에 따라 750만 유로 또는 회사 전 세계 매출액의 1.5%에서 최대 3,500만 유로 또는 매출액의 7%까지 다양한 벌금을 부과하는 비준수에 대한 제재를 부과합니다.

어떻게 준비해야 합니까?

유럽 AI법이 2024년 말에 시행될 가능성이 높으므로 특히 시스템이 다음과 같이 분류된 경우 지금 준비를 시작하는 것이 중요합니다. 위험 또는 범용 AI 모델을 개발 중입니다. 시스템이 엄격한 규제를 받지 않더라도 사용자에게 부정적인 영향을 미치지 않도록 책임감 있는 AI 개발에 투자하는 것이 가치가 있을 수 있습니다.


데이터 준비부터 심층적인 시스템 평가까지 시스템 구축의 모든 측면에 집중하는 것이 좋습니다.

훈련 데이터에 세심한 주의

EU AI법에 설명된 대로 기업은 데이터 세트의 세부 기록을 유지할 책임이 있습니다. 이를 통해 기업은 데이터 프라이버시를 존중하고 추적성을 향상시킬 수 있습니다. 예를 들어 시스템이 유해한 콘텐츠를 생성하는 경우 교육받은 데이터 세트에서 부적절한 데이터나 편향된 텍스트를 추적할 수 있습니다.


이는 새로운 규칙을 준비할 때 훈련 데이터 세트를 신중하게 고려해야 함을 의미합니다. 여기에는 교육에 사용되는 데이터의 일부를 필터링하고 정리하거나 스크랩한 데이터에 존재하는 일반적인 편견을 피하기 위해 도메인별로 선별되고 의도적으로 구축된 사용자 지정 데이터 세트를 구축하는 작업이 포함될 수 있습니다.

인간의 피드백을 이용한 정렬 방법

새로운 규칙을 준수하기 위해 LLM을 구축하는 회사는 진실성, 유용성 및 무해성에 중점을 두고 모델을 인간의 기대에 맞추는 데 투자해야 합니다. LLM 정렬에 사용되는 주요 방법은 다음과 같습니다. 인간 피드백을 통한 강화 학습 (RLHF) 및 직접 선호도 최적화 (DPO).


두 방법 모두 모델 출력에 대한 인간의 선호도를 수집하고 이 데이터를 사용하여 원하는 출력이 어떤 모습이어야 하는지 모델에 가르칩니다. 모델에 올바른 예를 제공하면 이 단계에서 대부분의 유해 콘텐츠 생성을 효과적으로 중지할 수 있습니다.

심층평가

AI 시스템 평가는 최우선 과제가 될 것이며 제품 개발 주기의 일부가 되어야 합니다. 좋은 모델을 갖고 있다는 느낌은 꼼꼼하고 심층적인 평가 전략으로 대체되어야 합니다.


생성 AI 시스템은 출력이 결정적이지 않기 때문에 평가하기가 특히 어렵습니다. 생성된 텍스트는 "정답"과 자동으로 비교할 수 없습니다. 이러한 시스템의 평가에는 정확성, 유용성, 무해성과 같은 다양한 측면에 초점을 맞춘 인간 피드백이 포함됩니다.


위에서 언급한 기본 수준보다 시스템을 더 자세히 평가해야 하는 경우가 더 많습니다. 예를 들어 유해성을 평가할 때 편견, 증오심 표현, 인종 차별 등의 범주로 더 나눌 수 있습니다. 이렇게 하면 부정적인 영향을 최소화하기 위해 시스템에서 수정해야 할 사항을 세부적인 수준에서 발견할 수 있습니다.

요약

의심의 여지 없이, EU AI 법은 AI 규정의 중요한 단계이며 책임 있는 AI 개발이 더 이상 선택 사항이 아니며 이제 법적으로 시행되는 AI의 새로운 시대를 의미합니다.


귀하의 회사는 새로운 AI 규정을 준수할 준비가 되어 있습니까?