[3.30 정보] AI 6개월 중지 서한 사건요약 / 팩트체크



- 사건 요약

  1. 현재 AI의 발전속도가 너무 빨라 6개월간 실험을 중단하고 논의를 하자는 공개 서한 발표
  2. 1000여명의 유명 인사들이 서한에 동참
  3. 하지만 특별한 검증 절차 없이 이름이 기입됨.
  4. 이것때문에 '샘 알트만(Open AI CEO)'의 이름이 기입되고 신뢰성 하락 ( 시진핑 등 관련 없는 사람들이 필터링 없이 올라오기 시작 )
  5. 현재는 서한 명단 등록 중단
  6. 샘 알트만의 이름 사라짐, Future of Life 측에서는 독립적인 절차를 밟고 있다고 주장

 - 오해 : AI 발전 반대 X
           6개월 잠정 중단하고 안전책 마련할 시간 확보 O

 현재의 속도로는 너무 많은 사회적 혼란을 초래할 것이라는 주장이 많습니다.

유명 언론에서도 직접적으로 언급되기 시작한 사건입니다.

검증 절차의 신뢰성은 현재로서는 확인 불가합니다. = 서한 신뢰도 X

But, 이 사건으로 인해 AI의 발전을 잠정적 중단하고 안전장치를 마련하기 위한 토의를 하자
집단적 움직임이 시작되었습니다. ( 특히 Gary Marcus씨가 Twit에서 열심히 토론하고 계시네요. )


명단에 있는 유명 인사분들의 Twit을 가지고 왔습니다.


100% 동의합니다.
--------------------------------------------------------------------------------------------------------------GPT-5는 AGI가 될 가능성이 없습니다.

아마도 어떤 GPT 모델도 AGI가 될 가능성이 거의 없습니다.

오늘날 우리가 사용하는 방법인 경사 하강법을 사용하여 최적화된 모델이 AGI가 될 가능성은 매우 낮습니다.

나오는 GPT 모델들은 분명히 세상을 바꿀 것입니다. 그러나 오버-하이프가 너무 심합니다.


주요 서명자들 중 몇 명을 확인했고, 어떤 사람이 농담으로나 신뢰성을 저해하려고 알트만을 추가한 것 같습니다.

저는 많은 사람들이 서명한 것을 알고 있습니다. 제가 아는 사람들 중 아무도 이 편지를 부인하지 않았습니다.

이것에 대한 모든 풍선 돌리기와 잘못된 정보를 지켜보는 것은 정말 놀랍습니다.
6개월 일시 중단에 동의하지 않는다면, 이 활기차고 중요한 스레드에서 대안을 제시하세요.
-----------------------------------------------------------------------------------
이 공개적인 스레드는
@FLIxrisk
편지의 지지자와 반대자 모두를 위한 것입니다.

일시 중단에 동의하든 동의하지 않든, 근시일과 장기적 위험에 대한 합법적 우려를 해결하기 위해 제안할 수 있는 다른 대안이 무엇인지 생각해 보세요.
이들은 수백만 명의 사람들의 삶과 생계에 깊은 영향을 미칠 강력한 새로운 도구입니다. 지금은 영향이 무엇일지 불확실한 상황에서도 가능한 한 빨리 움직이는 것이 동기 부여됩니다. 우리는 더 신중하게 접근하여 폭넓게 액세스 가능한 인공지능의 도래를 평가하고 적응할 기회를 단체, 개인, 교육자 및 관리자에게 주어야 합니다.
인공지능은 우리 문화, 사회 및 제도가 받아들일 준비가 되어 있지 않은 것보다 1000000배 빠르게 움직이고 있습니다. 우리는 이것을 올바르게 처리하기 위한 시간이 필요합니다.

이러한 능력 중 많은 것들이 위험한 방식으로 연결될 수 있습니다.

이번 주말 뉴욕 타임즈에서
@harari_yuval
@aza
와 함께 쓴 내 의견 기고문을 확인하세요.
당신이 말한 대로 그것이 실행되도록 보장하기 위해서입니다.

하지만, AGI나 지각 없이도 대규모 미래 모델은 매우 위험할 수 있습니다.

일시 중단은 큰 영향을 미치지 않을 것이라고 생각하지만, 투명성, 조정 및 더 나은 거버넌스가 100% 필요하다는 문서의 정신에 동의합니다.
신앙을 가지지 않는 기술 전문가들이 인공 슈퍼 지능을 만들어 하나님이 있는지 알아내기 위한 농담이 있습니다.

들어보니 그들은 마침내 만들고 질문을 던졌습니다.

그러자 인공지능은 "이제는 있다, 미친년들!!"이라고 대답합니다.

서한내용


컴퓨터가 인간 수준의 지능을 가지면 사회와 인류에 깊은 위험이 발생할 수 있습니다. 많은 연구 결과[1]와 최고의 인공지능 연구소에서 인정하듯이[2], 아싸일로마 인공지능 원칙에서 언급한 것처럼 고급 인공지능은 지구 생명 역사에 깊은 변화를 가져올 수 있으며, 관련된 조치와 자원을 충분히 계획하고 관리해야 합니다. 그러나 최근 몇 달간, 심지어 그 창조자들도 이해, 예측 또는 신뢰 가능한 제어를 할 수 없는 더욱 강력한 디지털 마음을 개발하고 배치하기 위해 경쟁하는 인공지능 연구소가 존재합니다.


현재의 인공지능 시스템은 일반적인 작업에서 인간과 경쟁할 정도로 발전하고 있으며,[3] 우리는 자신에게 질문해야 합니다. 기계가 프로파간다와 거짓 정보로 우리의 정보 채널을 가득 채워야 할까요? 충족감을 주는 직업을 포함하여 모든 일을 자동화해야 할까요? 우리를 능가하고 똑똑해지고 오래되고 대체될 수 있는 비인간적인 마음을 개발해야 할까요? 우리 문명의 통제를 잃어 버릴 위험이 있을까요? 이러한 결정은 선택된 기술 지도자들에게 위임해서는 안됩니다. 강력한 인공지능 시스템은 그들의 효과가 긍정적이며 그 위험이 관리 가능하다고 확신할 때에만 개발해야 합니다. 이러한 확신은 시스템의 잠재적 효과의 크기에 따라 잘 근거를 갖춰야 합니다. OpenAI의 최근 인공 일반 지능에 대한 발표는 "미래 시스템을 교육하기 전에 독립적인 검토를 받는 것이 중요하며, 가장 진보한 노력은 새로운 모델을 만드는 데 사용되는 컴퓨팅 성능의 성장 속도를 제한하는 데 동의해야 할 수도 있다"고 말합니다. 저희도 그렇게 생각합니다. 그 지점은 지금입니다.


따라서, 모든 인공지능 연구소에게 GPT-4보다 강력한 인공지능 시스템을 6개월 이상 즉시 일시 중단하도록 촉구합니다. 이 일시 중단은 공개 가능하고 검증 가능해야 하며, 모든 주요 주체를 포함해야 합니다. 이러한 일시 중단을 빠르게 실행할 수 없다면, 정부가 개입하여 중단 명령을 내려야 합니다.


인공지능 연구소와 독립 전문가들은 이 일시 중단을 활용하여 외부 독립 전문가들에 의해 엄격하게 감사되고 감독되는 공유 안전 프로토콜 집합을 공동으로 개발하고 구현해야 합니다. 이러한 프로토콜은 이들을 준수하는 시스템이 합리적인 의심을 불허할 정도로 안전하다는 것을 보장해야 합니다.[4] 이것은 예측할 수 없는 블랙박스 모델의 출현 능력에 대한 위험을 덜어내기 위한 위험한 경주에서 걸음을 멈추는 것을 의미합니다.


인공지능 연구와 개발은 현재의 강력하고 최첨단 시스템을 보다 정확하고 안전하며 해석 가능하고 투명하며 견고하고 일치하며 신뢰 가능하고 충성스러운 시스템으로 발전시키는 데 초점을 맞추어야 합니다.


동시에, 인공지능 개발자들은 정책 결정자들과 함께 견고한 인공지능 거버넌스 시스템의 개발을 대대적으로 가속화해야 합니다. 이것은 최소한 인공지능에 전념하는 새로운 및 능력 있는 규제 기관, 높은 능력의 인공지능 시스템 및 대규모의 계산 능력을 감시하고 추적하는 감독, 실제와 합성을 구분하고 모델 유출을 추적하는 출처 및 워터마킹 시스템, 견고한 감사 및 인증 생태계, 인공지능으로 인한 피해에 대한 책임, 기술적 인공지능 안전 연구를 위한 충분한 공공 자금, 그리고 인공지능이 (특히 민주주의에) 야기하는 집중적인 경제적 및 정치적 파괴에 대처할 수 있는 잘 자원화된 기관을 포함해야 합니다.


인류는 인공지능과 함께 번영하는 미래를 가질 수 있습니다. 강력한 인공지능 시스템을 만들었기 때문에, 우리는 이제 보상을 받을 수 있는 "인공지능 여름"을 즐길 수 있으며, 이러한 시스템을 모두의 명확한 이익을 위해 엔지니어링하고 사회가 적응할 기회를 주어야 합니다. 사회는 이미 사회에 치명적인 영향을 미칠 수 있는 다른 기술들에 대해 중단을 결정했습니다.[5] 여기서도 그렇게 할 수 있습니다. 우리는 오랜 인공지능 여름을 즐기고, 준비 없이 빠르게 가을로 떨어지지 않도록 합시다.
2