작성자 CRE 댓글 0 건 조회 26 회 작성일 20-01-21 15:45

안전하고 신뢰할 수 있는 인공지능(AI)을 만들기 위해선 국가·문화권 별로 다른 윤리 기준을 세워야 한다는 주장이 제기됐다. 20일 서울 성북구 고려대 CJ법학관 베리타스홀에서 열린 'AI 윤리와 데이터 거버넌스 토론회'에서 제시카 필드 하버드대 로스쿨 교수는 "AI 윤리는 그 나라의 문화·언어·조직적 맥락 등을 이해하는 것이 전제돼야 한다"고 말했다.


이날 토론회에는 AI 윤리를 연구하는 세계 각국의 법학자들이 한자리에 모였다. 고도의 AI 기술과 알고리즘이 상용화되고 있는데, 이와 관련한 윤리, 프라이버시의 기준을 어떻게 마련하고 합의해야 하는지 논의하기 위해서다. 고려대 로스쿨은 2016년부터 하버드 법대 버크먼 클레인 센터와 이 분야에 대해 함께 연구하고 있다. 정보기술(IT)과 인터넷이 사회에 미치는 영향, 그리고 아시아에서의 AI 발전 등과 관련해서다.

  

필드 교수는 이날 고려대에서 '원칙에 기반한 인공지능 보고서'를 발표하고 인공지능 윤리 연구 결과를 발표했다. AI 윤리에 대한 연구가 절대적으로 부족했는데, AI 윤리에도 '표준', '기준'을 만들어야 한다는 것이 주된 주장이다.   

 

필드 교수는 AI 윤리와 관련해 여덟 가지 주제로 나눠서 설명했다. ▶개인정보 ▶책임 ▶안전·보안 ▶투명성과 설명성 ▶공정성과 차별금지 ▶인간의 기술 통제 ▶전문적인 책임이 그것이다. 그는 "AI 윤리는 그 나라의 문화·언어·조직적 맥락 등을 이해하는 것이 전제조건이 돼야 한다"며 "AI 규범이 생기는 것이 능사가 아니라 이를 시작으로 다른 거버넌스(지배구조)에 대한 논의도 시작할 수 있다"고 지적했다.


 

<전체 기사 보기>

등록된 댓글이 없습니다.

"안전한 AI 만들려면"…전세계 법학자들이 말하는 AI 윤리

  • 작성일 20-01-21 15:45
  • 조회 26

안전하고 신뢰할 수 있는 인공지능(AI)을 만들기 위해선 국가·문화권 별로 다른 윤리 기준을 세워야 한다는 주장이 제기됐다. 20일 서울 성북구 고려대 CJ법학관 베리타스홀에서 열린 'AI 윤리와 데이터 거버넌스 토론회'에서 제시카 필드 하버드대 로스쿨 교수는 "AI 윤리는 그 나라의 문화·언어·조직적 맥락 등을 이해하는 것이 전제돼야 한다"고 말했다.


이날 토론회에는 AI 윤리를 연구하는 세계 각국의 법학자들이 한자리에 모였다. 고도의 AI 기술과 알고리즘이 상용화되고 있는데, 이와 관련한 윤리, 프라이버시의 기준을 어떻게 마련하고 합의해야 하는지 논의하기 위해서다. 고려대 로스쿨은 2016년부터 하버드 법대 버크먼 클레인 센터와 이 분야에 대해 함께 연구하고 있다. 정보기술(IT)과 인터넷이 사회에 미치는 영향, 그리고 아시아에서의 AI 발전 등과 관련해서다.

  

필드 교수는 이날 고려대에서 '원칙에 기반한 인공지능 보고서'를 발표하고 인공지능 윤리 연구 결과를 발표했다. AI 윤리에 대한 연구가 절대적으로 부족했는데, AI 윤리에도 '표준', '기준'을 만들어야 한다는 것이 주된 주장이다.   

 

필드 교수는 AI 윤리와 관련해 여덟 가지 주제로 나눠서 설명했다. ▶개인정보 ▶책임 ▶안전·보안 ▶투명성과 설명성 ▶공정성과 차별금지 ▶인간의 기술 통제 ▶전문적인 책임이 그것이다. 그는 "AI 윤리는 그 나라의 문화·언어·조직적 맥락 등을 이해하는 것이 전제조건이 돼야 한다"며 "AI 규범이 생기는 것이 능사가 아니라 이를 시작으로 다른 거버넌스(지배구조)에 대한 논의도 시작할 수 있다"고 지적했다.


 

<전체 기사 보기>