국외교육훈련

Overseas Training

게시판
훈련과정 장기일반과정(영어권) 훈련국 미국
훈련기관 플로리다 주립대학교 훈련기간 2019.06.10. ~ 2021.06.09.
훈련과제명 지능정보화 사회에 적합한 규범체계 정립
보고서제목 지능정보화 사회에 적합한 규범체계 정립
추천 0
1. 연구배경 및 필요성

빅데이터, 클라우드 컴퓨팅 등의 데이터 중심 기술이 발달함에 따라 이를 통합하는 key platform으로서 인공지능은 급속히 발달하고 있다. 하지만 AI 발전과 그 영향에 대한 우리의 전망은 예측할 수 없을 정도로 불확실하다. 전문가들 조차도 인공지능 발달에 대해서 그 예상이 상반될 정도로 인공지능 발전속도와 그 영향에 대해서는 아직까지 불확실성이 큰 상황이다. 인공지능의 발전속도와 그 영향에 대한 많은 논쟁에도 불구하고 아마존의 알렉사, 애플의 시리, 구글의 딥러닝 등 인공지능 기술은 이미 우리 사회에 빠르게 침투하여 사용되고 있다. 이에 각국은 인공지능에 대한 사회적 우려를 해소하고 인공지능에 대한 사회적 안전판으로서 통제장치 마련을 위한 논의를 전개하고 있다. 하지만 인공지능이 어떻게 발전하고 우리사회에 어느 정도까지 영향을 미칠 것인지 불확실한 상황에서, 법, 제도, 규제 등 일정정도 강제력을 가진 규범을 통해 인공지능 기술을 제한하는 것은 불가능하며 바람직하지도 않다. 또한, 인공지능에 대한 우려로 인공지능 알고리즘을 전체적으로 공개하도록 강제하는 것 역시 기업의 지적재산권을 침해하고 기업의 창의성과 혁신을 저해할 우려가 있어 신중한 접근이 요구된다. 결국, 인공지능의 부정적 영향에 대한 우려를 최소화하고 인공지능의 발전을 도모하기 위해서는 인공지능 발전을 저해할 수 있는 법, 규제의 남용을 최소화하는 동시에 인공지능 알고리즘에 대한 투명성 확보방안을 논의할 필요가 있다.

2. 이 연구의 의의

인공지능 알고리즘의 논의는 여러 분야에서 진행되고 있으나, 아직까지는 추상적 수준에서 일반적이고 총론적인 규범 논의에 그치고 있다. 인공지능의 기술 발전 속도가 빠르고 그 발전 방향 또한 예상하기가 쉽지 않기 때문에 법이나 규제를 섣불리 설정할 경우 전문가들의 자율성을 침해할 우려가 높기 때문이다. 하지만 추상적, 총론적 논의만 제기됨에 따라 이를 보다 구체화하는 작업이 필요하다. 이 논문에서는 이러한 방향의 하나로 인공지능 알고리즘의 투명성 확보방안을 구체적으로 제시하고자 한다.

3. 주요 연구내용

이 논문의 목표는 AI 알고리즘의 투명성을 높이는 정책방안을 제시하는 것이다. 이를 통해 사용자들의 수용성을 높여 AI 알고리즘 발전을 꾀하는 것을 목적으로 한다. 따라서, 먼저 제시되는 정책대안들이 인공지능 알고리즘의 투명성을 얼마나 제고하는지 평가하고자 한다. 그리고 구체적인 정책대안들이 현실에서 적용가능한지 평가하기 위해 해당 정책들에 대해 이해관계자들이 수용가능성을 추가적으로 평가하고자 한다. 각 정책대안들이 투명성을 얼마나 높일 수 있는지 측정하기 위해 투명성 측정 지표로서 정보접근성과 완전성을 사용하고자 한다. 이해관계자들의 정책수용성을 측정하는 지표로는 소망성, 명확성, 실효성을 사용할 것이다.

정책대안들이 실효성을 가질 수 있도록 최소한의 강제력을 포함한 실질적인 실행이 가능한 정책옵션을 제시하고자 한다. 이에 따라, 현재 많은 국가나 기관, 기업들이 제시하는 인공지능 윤리 가이드라인을 마련하는 방안은 여기서는 논의하지 않기로 한다. 왜냐하면 해당 가이드라인은 인간의 존엄과 가치, 공정성, 투명성, 책무성, 프라이버시 보호 등 AI 알고리즘 개발, 사용에 대한 전체적인 내용을 다루고 있고 그 실행은 개발자의 선한 의지에 전적으로 의존하고 있기 때문이다. 이는 정책의 실현이 개발자의 선의에 기대고 있어 투명성 확보 또한 개발자의 선의나 의지에 좌우되기 때문이다. 이에 따라 이 논문에서 검토하고자 하는 대안은 다음과 같다.

정책대안 1: 인공지능 입력 데이터와 출력 결과물 공개, 설명 의무화
정책대안 2: 인공지능 영향평가 및 감사
정책대안 3: 윤리적 가치를 AI 알고리즘에 코드화하도록 의무 부과

각각의 방안은 행위자를 기준으로 AI 알고리즘의 투명성 확보 방안을 제시하고 있다. 먼저 정보를 제공하는 이용자가 직접 AI 알고리즘의 투명성을 확인할 수 있는 방법을 첫 번째 정책대안으로 제시하고자 한다. 개발자가 공개한 정보를 이용자가 확인하고 추가적으로 필요한 정보는 개발자에게 설명을 요구할 수 있는 권리를 이용자에게 부여하여 이용자 스스로 투명성을 확보하는 것이다. 두 번째 정책대안은 국가기관이나 신뢰할 수 있는 제3자가 이용자를 대신하여 간접적으로 데이터나 인공지능 알고리즘의 투명성을 확인하는 방법이다. 인공지능 알고리즘을 구성하는 레이어는 수백, 수천 레이어로 구성되어 있으며, 그 내용 또한 전문적이어서 해당 기술 분야에 대한 전문성이 부족한 이용자가 이를 확인하기란 쉽지 않을 것이다. 따라서, 공신력과 전문성을 가진 국가기관이 이용자를 대신해 투명성을 확인하는 것을 두 번째 정책대안으로 제시하고자 한다. 세 번째 정책대안은 인공지능 알고리즘에 대한 외부 개입 없이 개발자와 인공지능 알고리즘 스스로 직접 투명성을 증명하는 방법이다. 투명성이나 윤리적 가치를 코드화하고 이를 인공지능 알고리즘이 학습하도록 하여 인공지능 알고리즘에 대한 개입을 최소화하여 산업 발전을 도모하고자 한다. 각각의 정책대안은 정보접근성, 정보완전성, 정책수용성 관점에서 3점 척도로 평가할 것이다.

4. 결론

세 가지 대안 모두 AI 알고리즘의 투명성을 증대시키는데 기여한다. 그러나, 정책에 대한 효과는 정책에 대한 이해관계자들의 반응에 따라 상이하게 나타난다. 따라서, 실현가능성과 AI 알고리즘 투명성을 제고시키는 정도를 고려하여 정책옵션을 선택하는 것이 타당하다.

AI 알고리즘의 지속가능한 발전과 투명성 확보라는 2개의 가치가 조화롭게 발전하기 위해서는 정책대안 2가 현재로서는 가장 효과적인 정책으로 판단된다. 전문화된 국가기관에 의해 AI 알고리즘에 검증이 가능하며 제시된 기준에 따라 개발자 스스로 평가하고, 사후 문제가 발생할 경우 개입하는 형식을 취해 AI 알고리즘에 대한 투명성 확보와 개발자의 정책수용성 양자를 조화롭게 도모할 수 있기 때문이다. 다만, AI 알고리즘이 지속적으로 발전하고 진화하는 상황에서 사후 감사를 통해 최소 1년 전 알고리즘에 대한 데이터와 논리구조를 판단하는 것은 즉시성에서 한계를 가질 수 있다. 또한, 인공지능의 발전이 인간의 인지능력을 초과할 경우 이를 감사하고 평가하는 것 또한 정보접근성과 정보완전성을 낮추게 될 것이다. 결국 인공지능 알고리즘 발전 초기에는 알고리즘에 대한 투명성과 신뢰성을 확보할 수 있도록 정책대안 2를 중심으로 AI 알고리즘 투명성 정책을 수립하고, 추후 사회적 논의과정을 거쳐 윤리적 가치에 대한 사회적 합의가 도출될 경우에는 인공지능 알고리즘 투명성에 대한 지속적이고 즉시적인 검증이 가능한 정책대안 3으로 정책적인 전환하는 것이 바람직 할 것이다.
첨부파일