"개인정보 유출 막아라"…금융분야 AI 보안지침 마련

연합뉴스TV
연합뉴스TV
팔로워 364명
작년
"개인정보 유출 막아라"…금융분야 AI 보안지침 마련

[앵커]

챗GPT 등장을 계기로 금융권에서도 인공지능 서비스 개발이 속도를 내고 있습니다.

AI 은행원뿐만 아니라 AI 기반 신용평가모형 등 다양한 분야에서 활용되고 있는데, 다만 개인정보 유출 등 다양한 보안 위협이 발생할 우려가 있어 금융당국이 보안 지침을 마련했습니다.

김동욱 기자입니다.

[기자]

은행 디지털 상담 창구에 앉자 은행 직원의 얼굴을 본따 만든 인공지능, AI 행원이 업무를 도와줍니다.

"어떤 업무를 도와드릴까요? 편하게 말씀해보세요."

금융권에서의 AI 활용은 고객 상담뿐 아니라 신용평가 등으로 활용 분야가 확대되고 있습니다.

하지만 AI는 아직 개인정보 유출 등 다양한 보안 문제를 안고 있습니다.

AI 챗봇 '이루다'는 재작년 실명과 계좌번호, 주소 등 개인정보를 유출했고, 한 정신과 챗봇은 출시 전 모의 환자에게 자살을 권유하는 일도 있었습니다.

특히 금융분야는 사고 발생 시 직접적인 금전적 피해로 이어지는 만큼 보안의 중요성이 큰 상황입니다.

이에 금융당국은 개발 단계에서부터 활용하도록 금융분야 AI 보안 가이드라인을 마련했습니다.

여기에는 수집된 데이터를 적절히 가공하는 등 오염된 데이터를 통해 AI가 학습하지 않도록 하는 내용과 개인정보 유출 등 적대적 공격을 방지하도록 AI 모델을 구성하는 내용이 담겼습니다.

"금융분야 AI 안내서 활용실태와 AI 리스크 관리를 위한 금융회사의 내부통제 현황 등을 점검해 AI 활용을 확대할 수 있는 기반 조성에 노력하겠습니다."

금융당국은 AI가 활발하게 사용되는 분야인 '챗봇서비스'에 대해서는 별도로 '보안성 체크리스트'를 마련해 서비스 개발 시 활용하도록 했습니다.

연합뉴스TV 김동욱입니다. (dk1@yna.co.kr)

#금융 #인공지능 #AI #개인정보 #금융위 #금감원

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

(끝)

추천