[글로벌 동향] 전문가들, 인공지능(AI)에 보안 결정권 부여할까
Minja Marjomaa (핀란드, 연세대학교 경제학과)
International Student Ambassador 2기
“여러 많은 부문에서 인공지능(AI)이 인간보다 더 낫다는 점은 이미 알려진 사실입니다.” 지난 10월 핀란드 헬싱키 컨벤션 센터에서 열린 인공지능과 보안전문가 포럼에서 나온 말이다.
이번 포럼에서 열린 전문가 패널 토론에 참석한 청중을 대상으로 물어본 결과, 대다수의 사람들이 인공지능이 스스로 특정 회사의 보안 규칙을 업데이트 하는 것에 동의한다고 밝혔다. 기계가 옳고 그름의 기준을 학습한다면, 이것을 보안 정보에 적용해서도 쓸 수 있지 않겠냐는 것이다. 물론 모든 인공지능(AI)이 이러한 수준의 이해력을 보이는 것은 아니다.
패널 토론에 참석한 IBM의 보안 전문가 Christian Givskov는 “기계에게 뭐든 가르칠 수 있다면, 보안도 가르칠 수 있어야죠.”라는 의견을 내 놓았다. 이따금 위협적으로 보일 수 있는 인공지능과 정보 보안 문제에 대해서도 그는 낙관적인 견해를 보였다. 인공지능의 사용은 인간의 능력을 한걸음 더 나아가게 하는 데 있다며, 프로그램이 종종 편향적인 관점을 습득하는 경우가 있는데, 기계가 무엇이 옳고 그른지 통합적으로 학습한다면 인공지능이 보안 향상에 도움이 될 것이라 주장했다.
다른 패널인 F-Secure의 인공지능 전문가 Matti Aksela와 시스코(Cisco)의 보안 수석 Marko Haarala는 앞선 의견에 동의하면서도, 여전히 기계가 이해하지 못하는 것들의 존재를 인정한다. Marko Haarala는 인공지능을 흑백이라는 단어로 묘사한다. “기계는 0과 1로 세상을 바라봅니다. 때문에 흑백의 결정을 하고, 망설임도 없습니다.”
그렇다면, 이제 가장 중요한 철학적 질문을 던지게 된다. 과연 우리 인간은 언제쯤 인공지능에 의존할 수 있을까? Matti Aksela는 프로그램 유저들이 알고리즘의 설계를 이해하는 것이 시작이라고 강조한다. 인공지능 전문가들과의 지속적인 상호작용, 그리고 유저들이 기계의 작동원리를 이해하는 것이 보안의 핵심이라는 것이다. 세상에 완벽한 것은 없고, 인공지능이 모든 문제를 해결 해 주지도 않을 것이기 때문이다. 오히려 성급하게 접근하면 새로운 문제를 만들어낼 수도 있다. Christian Givskov는 인공지능이 해커들에게도 유리하게 사용될 수 있음을 언급하였다.
또 다른 논점은 프로그램을 어떻게 가르칠 것인가에 대한 것이다. 자의적인 논리를 심어주는 것은 문제의 소지가 있으며, 예시를 통해 가르치는 것이 필요하다. 프로그램이 보안 공격을 예방하는 방법을 가르치려면 어떻게 공격이 일어 나는지에서 시작해야한다. 그러면 누군가는 첫번째 희생양이 되어야 하는데, 이 때문에 현재 많은 회사들은 모델을 바꾸어 첫 희생양이 없이도 러닝을 가능하게하는 방법에 집중하고 있다.
이러한 일부 우울한 전망에도 불구하고, 포럼에 참석한 전문가들은 기본적으로 인공지능에 대한 큰 신뢰를 가지고 있었다. 그리고 기업 보안 규칙을 개선하는데 있어 인공지능에 독자적 권리를 부여하는 것에 대해서도 모든 패널들이 동의 의사를 밝혔다. 패널토론에 함께한 청중들에게 설문한 결과에서도 74%의 청중이 동의하는 것으로 나타나 기업 보안에 있어서 만큼은 인공지능에 자리를 내어줄 준비가 된 것으로 보인다.