인공지능이 위협하는 정보 왜곡, 정말 심각한가? 사이버 보안 전문가가 주장하다

사이버 보안 전문가들은 인공지능이 생성한 콘텐츠가 현실 인식을 왜곡할 가능성이 있다고 우려하고 있습니다. 이러한 우려는 중요한 선거가 많이 치러지는 해에 더욱 문제가 됩니다.

하지만 한 주요 전문가는 대중의 의견과 달리 딥페이크가 민주주의에 미치는 위협이 과장되었다고 제안합니다.

시스코의 탈로스 보안 정보 및 연구 그룹의 기술 리더인 마틴 리는 CNBC와의 인터뷰에서 딥페이크가 강력한 기술이기는 하지만 가짜 뉴스만큼 영향력이 크지 않다고 생각한다고 밝혔습니다.

그러나 새로운 생성 AI 도구는 가짜 콘텐츠 생성을 더 쉽게 만들 수 있는 “위협”이 됩니다.

AI가 생성한 자료는 종종 실제 사람이 만들지 않았다는 것을 나타내는 공통적으로 식별 가능한 지표를 포함할 수 있습니다.

특히 시각 콘텐츠는 취약한 것으로 나타났습니다. 예를 들어, AI가 생성한 이미지에는 두 개 이상의 손이 있는 사람이나 배경에 합쳐진 팔과 같은 시각적 이상이 포함될 수 있습니다.

합성 음성 오디오와 실제 사람의 음성 클립을 구분하는 것은 더 어려울 수 있습니다. 하지만 AI는 여전히 그 훈련 데이터만큼만 좋다고 전문가들은 말합니다.

“그럼에도 불구하고, 기계가 생성한 콘텐츠는 객관적으로 볼 때 종종 그렇게 감지될 수 있습니다. 어쨌든, 콘텐츠 생성이 공격자들에게 제한적이라는 것은 매우 희박합니다.” 리가 말했습니다.

전문가들은 세계 각국의 다가오는 선거에서 AI가 생성한 정보조작이 주요 위험 요소가 될 것으로 예상한다고 CNBC에 이전에 밝힌 바 있습니다.

‘제한된 유용성’
엔터프라이즈 기술 회사인 애피언의 CEO 매트 캘킨스는 AI의 “제한된 유용성”을 지적했습니다.

오늘날의 많은 생성 AI 도구는 “지루할” 수 있습니다. “당신을 알게 되면 놀라운 것에서 유용한 것으로 바뀔 수 있지만, 지금은 그 선을 넘지 못하고 있습니다.”

“우리가 자신에 대한 지식을 AI와 신뢰하려고 할 때, 그것은 정말 놀라울 것입니다.” 캘킨스는 이번 주 CNBC와의 인터뷰에서 말했습니다.

이것은 미래에 더 효과적이고 위험한 정보조작 도구가 될 수 있습니다. 캘킨스는 또한 미국 내에서 이 기술을 규제하기 위한 노력에 대한 진전에 불만을 표시했습니다.