2024.03.29 (금)

  • 흐림동두천 1.0℃
  • 흐림강릉 1.3℃
  • 서울 3.2℃
  • 대전 3.3℃
  • 대구 6.8℃
  • 울산 6.6℃
  • 광주 8.3℃
  • 부산 7.7℃
  • 흐림고창 6.7℃
  • 흐림제주 10.7℃
  • 흐림강화 2.2℃
  • 흐림보은 3.2℃
  • 흐림금산 4.4℃
  • 흐림강진군 8.7℃
  • 흐림경주시 6.7℃
  • 흐림거제 8.0℃
기상청 제공

[청년발언대] 설명 가능한 인공지능 'XAI'

 

【 청년일보 】2016년 여름, 미국의 방위고등연구계획국(DARPA: Defense Advanced Research Projects Agency)에서 인공지능과 관련된 프로젝트를 착수했다.

 

이 문건의 문서번호는 BAA-16-53으로 제목은 ‘Explainable Artificial Intelligence, XAI)’ 우리말로 ‘설명 가능한 인공지능’이다.

 

설명 가능한 인공지능(XAI)는 인공지능 모델이 특정 결론을 내리기까지 어떤 근거로 의사 결정을 내렸는지를 알 수 있게 설명 가능성을 추가하는 기법이며 XAI가 주목받게 된 배경부터 찬찬히 살펴볼 필요가 있다.

 

인공 지능이 우리의 생활 반경에 들어선 것은 이미 오래 전의 일이다. 이제는 AI(Artificial Intelligence) 기술이 활용되지 않는 분야가 거의 없으며, 우리의 삶은 그와 함께 자동화되었다.

 

AI 시장은 자율주행, 딥러닝(Deep Learning) 기술이 상용화됨에 따라 더더욱 급성장하였다.

 

딥러닝은 이미지, 자연어 처리 등 다양한 분야에서 인간의 능력을 상회하는 모델들이 발표되어 왔고 새로운 모델들이 나날이 State-Of-The-Art를 갱신하고 있다.

 

그러나 현재 딥러닝 모델은 우수한 성능을 자랑하는 반면, 설명력과의 Trade-Off 관계가 존재한다. 딥러닝 모델은 수백만 개의 파라미터와 고차원적이고 복잡한 비선형의 속성(representation)을 가졌으며 모델이 내린 결론에 대해 설명할 수 없기 때문에 black-box 모델이라고 불리기도 한다.

 

모델의 결과가 직관적으로 설명되지 않으면 성능이 아무리 뛰어나더라도 산업에 적용시킬 수 없다. 특히나 의료 산업이나 자율 주행 분야는 한 치의 오차도 허용할 수 없기 때문에 모델의 설명력에 대한 니즈는 점점 높아져만 간다.

 

 XAI를 통해 머신러닝 모델의 복잡성을 해소할 수 있으며 알고리즘 설계자와 의사 결정자를 합리적으로 설득한다. 시스템의 출력 결과를 신뢰할 수 있고, 다음 의사 결정을 위해 인공지능을 적극 사용할 수 있다.

 

이러한 의미에서 XAI를 해석 가능한 인공지능(Interpretable AI), 또는 투명한 인공지능(Transparent AI)이라고 부르기도 한다. 그렇지만 XAI가 만능 해석력을 가진 것은 아니다. 인공지능의 정확도 자체가 낮은 경우에는 오히려 문제를 키울 수도 있다.

 

XAI 알고리즘 기법들은 서로 상충하는 설명 결과를 내놓기도 하며 올바른 알고리즘을 선택하는 안목은 데이터의 특성과 XAI 알고리즘 원리를 잘 이해하고 있는 데이터과학자의 숙련도에 달려 있으며, 빅데이터 전문가들은 논리력을 갖추기 위해 다양한 XAI 기법을 이해하고 적절하게 활용하여야만 할 것이다.

 

 

【 청년서포터즈 3기 정은채 】

관련기사




청년발언대

더보기


기자수첩

더보기

배너
배너
배너
배너