선린53동기회

 
  자유게시판
  유머/한담방
  사진/아름다운글
  음악감상방
  성 인 방
  추억의 사진방

 
     

‘3차대전’부터 ‘빅브라더’까지…AI 관한 무서운 예측 5가지

작성자 : 이일의
    
     ‘3차대전’부터 ‘빅브라더’까지…AI 관한 무서운 예측 5가지   
    
       박소정 기자 
       입력 2018.08.03 19:01 
    
    경제매체 CNBC가 1일, 인공지능(AI)이 초래할 무서운 미래의 모습을 5가지로 꼽아 소개했다. 
    CNBC는 대량 실업, 전쟁, 로봇 의사, 대량 감시, 차별 등 다섯 가지를 선정했다. AI의 기술 발전에만 집중한 
    나머지 이것이 초래할 도덕적 문제들에 대한 논의가 충분히 이뤄지지 않고 있다는 지적에서다.
    CNBC는 다섯 가지 예측 중 하나로 AI를 이용해 만든 살상용 무기, 킬러로봇 등의 등장이 전쟁으로 이어질 수 
    있다는 우려를 내놓았다. 
    
    테슬라 최고경영자인 일론 머스크도 지난해 9월, “AI가 제3차 세계 대전을 일으킬 수 있다”며 경고해 논란이 
    일었다.
    
    머스크의 발언이 다소 과장됐다는 평가도 있지만, 전문가들은 그리 쉽게 지나칠 문제만은 아니라고 반응한다. 
    네덜란드 소재 암스테르담 자유대학교 인공지능 연구진은 “AI를 비롯해 컴퓨터 시스템이 자동으로 삶과 죽음의 
    문제를 결정한다는 것은 매우 무서운 생각이다”라고 말했다.
    
    
     
    지난해 9월, 일론 머스크 테슬라 최고경영자가 인공지능으로 인해 3차 대전이 일어날 
    가능성이 있다고 언급한 트위터 게시글. /일론 머스크 트위터 
    
    올해 초 미국 싱크탱크 랜드코퍼레이션은 보고서를 통해 “AI의 군사분야 응용은 2040년까지 핵전쟁을 일으킬 
    수 있다”고 경고하기도 했다. 시스템이 실수로 잘못된 분석을 한다면, 이를 바탕으로 국가가 치명적인 결정을 
    내릴 수도 있다는 것이다.
    
    영화 ‘세상을 구한 남자’의 실존 모델인 스타니슬라프 페트로프 전 소련군 장교의 일화는 이 같은 예측이 아주 
    허무맹랑한 상상만은 아니라는 점을 일깨워준다. 미-소 긴장이 한창 고조돼 있던 1983년 당시 미국이 핵 공격
    을 개시했다는 경보가 소련에 울렸지만, 페트로프 중령은 컴퓨터의 오류 가능성을 의심해 상부에 보고하지 
    않았다. 그 덕에 인류는 핵전쟁 위기를 모면할 수 있었다.
    
                
     
    1983년 인류를 핵전쟁 위기에서 구한 스타니슬라프 페트로프 
    전 소련군 장교의 군 복무 당시 모습. /brightstarsound.com 
    
    조지 오웰의 작품 ‘1984’ 속 ‘빅브라더 사회’가 현실에서 구현될 가능성도 있다. 빅브라더 사회는 국가의 감시 
    아래 모든 것이 통제되는 곳으로, 작가가 소설 속에 그린 디스토피아다.
    
    중국에서는 이미 AI와 얼굴 인식 기술을 결합해 범죄를 단속하기 위한 목적으로 사용하고 있어 그 우려가 현실
    화하고 있다. 중국은 2015년 실시간 영상 감시 시스템 ‘톈왕(天網·하늘의 그물)’을 만들었고, 2년 동안 범죄자 
    2000명 이상을 체포한 것으로 알려졌다.
    
    중국은 현재 국가 전역에 설치된 약 2억 대의 감시카메라를 기반으로 주민의 행동을 감시하고 점수를 매긴 뒤 
    통제하는 ‘사회신용체계’ 제도를 구축하고 있다.
                 
     
    1959년 개봉한 영화 ‘1984’의 한 장면. 엄격한 통제 사회를 상징하는 문구 “빅브라더가 
    당신을 보고 있다(Big brother is watching you)!”가 보인다. /유튜브 
    
    AI로 인해 인종과 성별 등에서 차별을 없애려 노력했던 역사를 역행해 퇴보할 수 있다는 시각도 나온다.
    
    2년 전 논란이 된 마이크로소프트사의 AI 채팅봇 ‘테이(Tay)’의 실패가 대표적이다. 테이는 학습을 통해 스스로 
    사람과 대화를 나누도록 설계됐다. 그러나 사용자들이 악의적으로 차별 발언을 유도하는 바람에 히틀러와 백인
    우월주의를 지지하는 등의 글을 올려 물의를 일으켰다. 테이는 16시간 만에 운영이 중단됐다.
    
    현재까지 개발된 AI 얼굴인식 기능의 정확도가 피부색에 따라 다르다는 사실도 익히 알려진 사실이다. 뉴욕타임
    스는 지난 2월, 미국 매사추세츠공대 미디어랩의 조이 부올라미니 연구원의 논문을 인용하며 “사진 속 사람이 
    백인일 경우 정확도는 99%지만, 흑인 여성의 경우는 최고 35%까지 오류가 발생한다”고 보도했다. 이 실험은 
    마이크로소프트, IBM, 중국 메그비 등 세 곳의 AI 얼굴인식 기능을 이용해 진행됐다.
    
    이에 대해 토비 왈시 호주 뉴사우스웨일스대 교수는 “알고리즘이 의도치 않은 편견을 만들어내고 있다”며 50년 
    간 인류가 없애려고 노력해 온 인종, 성별 등 편견들이 오히려 강화될 수 있다고 지적했다.
    
            
     
    마이크로소프트의 인공지능 채팅봇 ‘테이(Tay)’ 공식 트위터. /테이 트위터 
    
    CNBC는 이외에도 대량 실업 사태, 로봇 의사의 출현으로 인한 오진·개인정보보호 문제를 AI가 초래할 
    무서운 미래의 모습으로 꼽았다.
     
    
    




37세 경찰대, '로스쿨 방식'으로 순혈주의 깬다
루벤스 누드화가 성인물? 벨기에 미술관들, 페이스북과 ‘전쟁’

태그연습장