논문 제목(국문) : 인공지능 규제 법률의 한계점과 설계방안
논문 제목(영문) : Limitations and Design direction of Artificial Intelligence Regulation Legislation
저자 : 김법연
소속 : 고려대학교 정보보호대학원 연구교수
요약
Discussions about the risks of artificial intelligence technology and services have been around for quite a long time. Major countries have establsihed the legislative regulatations to contro the risks of AI. Starting from concretizing the risks associated with AI, various control measure are applied to AI with higher risks. For businesses involved in the development, application, deployment, use of AI, the main focus of the control measures is on the data management, quality control of AI systems and services, risk management, record management, personal information protection. For users of high-risk AI systems, the focus is on ensuring the right to request explanations and receive appropriate compensation for damages. These measures are being put in place to overcome the issues that traditional regulatory systems were unable to address due to AI's autonomy, unpredictability, and uncertainty. In this situation, it is necessary to review the method and content of legal control over artificial intelligence technology and services. It is time to think about whether it can act as motivated when a law with a regulatory approach is in place. Therefore, this paper applies the EU AI Regulation ACT to 'Iruda Service', which has been the most issue in Korea, and examines the limitations. Based on this, I would like to suggest the design direction of artificial intelligence regulation legislation
목차
1. 서 론
2. AI 규제 입법의 동향과 주요내용: EU AI Regulation
2.1. EU AI 규제법안의 입법배경
2.2 적용대상과 주요 개념
2.2.1. 위험의 분류
2.2.2. 적용대상과 개념
2.3 고위험 인공지능시스템의 의무
2.3.1. 위험관리체계의 수립
2.3.2. 데이터 관리체계의 수립
2.3.3. 품질관리체계의 수립
2.3.4. 사이버보안
2.3.5. 인간에 의한 통제
2.3.6. 투명성 확보 및 정보제공
2.3.7. 기록관리
2.3.8. 차별방지의무
3. 법률에의한AI 위험통제의가능성과한계
3.1 개관
3.2 법안 적용 및 위험의 통제 가능성 검토
3.3 법안 적용에 대한 평가
3.3.1. 법 위반 사실 판단의 어려움
3.3.2. 데이터 관리의 가능성
3.3.3. 설명요구 및 투명성 확보의 가능성
3.3.4. 이용자에 대한 위험통제 가능성
4. AI규제의 방향성에 대한 제언
4.1. 사업자에 의한 1차적 통제
4.2 일반적 규제와 개별 규제의 종합적 접근
4.3. 기술 변화와 이용자 역량의 문제 고려
4.3.1. 생성형AI의 특징과 위험의 변화
4.3.2. 이용자 역량 강화
5. 결 론
논문 제목(국문) : 인공지능 규제 법률의 한계점과 설계방안
논문 제목(영문) : Limitations and Design direction of Artificial Intelligence Regulation Legislation
저자 : 김법연
소속 : 고려대학교 정보보호대학원 연구교수
요약
Discussions about the risks of artificial intelligence technology and services have been around for quite a long time. Major countries have establsihed the legislative regulatations to contro the risks of AI. Starting from concretizing the risks associated with AI, various control measure are applied to AI with higher risks. For businesses involved in the development, application, deployment, use of AI, the main focus of the control measures is on the data management, quality control of AI systems and services, risk management, record management, personal information protection. For users of high-risk AI systems, the focus is on ensuring the right to request explanations and receive appropriate compensation for damages. These measures are being put in place to overcome the issues that traditional regulatory systems were unable to address due to AI's autonomy, unpredictability, and uncertainty. In this situation, it is necessary to review the method and content of legal control over artificial intelligence technology and services. It is time to think about whether it can act as motivated when a law with a regulatory approach is in place. Therefore, this paper applies the EU AI Regulation ACT to 'Iruda Service', which has been the most issue in Korea, and examines the limitations. Based on this, I would like to suggest the design direction of artificial intelligence regulation legislation
목차
1. 서 론
2. AI 규제 입법의 동향과 주요내용: EU AI Regulation
2.1. EU AI 규제법안의 입법배경
2.2 적용대상과 주요 개념
2.2.1. 위험의 분류
2.2.2. 적용대상과 개념
2.3 고위험 인공지능시스템의 의무
2.3.1. 위험관리체계의 수립
2.3.2. 데이터 관리체계의 수립
2.3.3. 품질관리체계의 수립
2.3.4. 사이버보안
2.3.5. 인간에 의한 통제
2.3.6. 투명성 확보 및 정보제공
2.3.7. 기록관리
2.3.8. 차별방지의무
3. 법률에의한AI 위험통제의가능성과한계
3.1 개관
3.2 법안 적용 및 위험의 통제 가능성 검토
3.3 법안 적용에 대한 평가
3.3.1. 법 위반 사실 판단의 어려움
3.3.2. 데이터 관리의 가능성
3.3.3. 설명요구 및 투명성 확보의 가능성
3.3.4. 이용자에 대한 위험통제 가능성
4. AI규제의 방향성에 대한 제언
4.1. 사업자에 의한 1차적 통제
4.2 일반적 규제와 개별 규제의 종합적 접근
4.3. 기술 변화와 이용자 역량의 문제 고려
4.3.1. 생성형AI의 특징과 위험의 변화
4.3.2. 이용자 역량 강화
5. 결 론