태그 보관물: GPT-4

GPT-4가 여기에 있습니다 : 과학자들이 생각하는 것

연구원들은 AI에 대해 흥분하고 있지만 많은 사람들은 AI의 기본 엔지니어링이 비밀리에 숨겨져 있다는 사실에 좌절하고 있습니다.

 

NEWS 16 March 2023

GPT-4 is here: what scientists think

Researchers are excited about the AI — but many are frustrated that its underlying engineering is cloaked in secrecy.

 

https://www.nature.com/articles/d41586-023-00816-5

 

인공 지능 회사 OpenAI는 이번 주에 인기 있는 챗봇 ChatGPT를 구동하는 대형 언어 모델의 최신 화신인 GPT-4를 공개했습니다. 이 회사는 GPT-4가 큰 개선을 포함하고 있다고 말합니다 – 이미 인간과 같은 텍스트를 만들고 거의 모든 프롬프트에서 이미지와 컴퓨터 코드를 생성하는 능력으로 사람들을 놀라게 했습니다. 연구원들은 이러한 능력이 과학을 변화시킬 잠재력이 있다고 말하지만, 일부는 아직 기술, 기본 코드 또는 훈련 방법에 대한 정보에 액세스 할 수 없다는 사실에 좌절감을 느낍니다. 이는 기술의 안전성에 대한 우려를 불러일으키고 연구에 덜 유용하게 만든다고 과학자들은 말합니다.

 

3월 14일에 출시된 GPT-4의 한 가지 업그레이드는 이제 텍스트뿐 아니라 이미지도 처리할 수 있다는 것입니다. 그리고 언어 능력을 입증하듯 캘리포니아주 샌프란시스코에 본사를 둔 Open AI는 이전 버전의 ChatGPT가 10분위 수를 기록한 것과 비교하여 90분위 수로 미국 변호사 시험을 통과했다고 합니다. 그러나 이 기술은 아직 널리 사용되지 않습니다. 지금까지 ChatGPT의 유료 가입자만 액세스할 수 있습니다.

 

암스테르담 대학교의 심리학자 Evi-Anne van Dis는 “현재 대기자 명단이 있어 지금 사용할 수 없습니다.”라고 말합니다. 그러나 그녀는 GPT-4의 데모를 보았습니다. “우리는 그들이 능력을 입증한 비디오를 몇 개 봤는데 정말 놀라웠습니다.”라고 그녀는 말합니다. 한 가지 사례는 GPT-4가 이미지를 입력으로 처리하는 능력을 보여주기 위해 해당 웹사이트를 구축하는 데 필요한 컴퓨터 코드를 생성하는 데 사용했던 웹사이트의 손으로 그린 ​​낙서였습니다.

 

그러나 과학 커뮤니티에서는 모델이 어떻게 그리고 어떤 데이터를 훈련했는지, 그리고 실제로 어떻게 작동하는지에 대한 OpenAI의 비밀에 대해 좌절감을 느끼고 있습니다. “이 모든 폐쇄 소스 모델은 본질적으로 과학에서 막 다른 골목입니다.”라고 오픈소스 AI 커뮤니티인 HuggingFace의 기후 전문 연구 과학자인 Sasha Luccioni는 말합니다. “그들[OpenAI]은 연구를 계속 구축할 수 있지만, 커뮤니티 전체에게는 막다른 골목입니다.”

 

‘레드 팀’ 테스트

로체스터 대학교의 화학 엔지니어인 Andrew White는 ‘레드 팀’으로서 GPT-4에 액세스할 수 있는 특권을 가졌습니다. OpenAI에서 지불하여 플랫폼을 테스트하여 나쁜 일을 하도록 만드는 사람입니다. 그는 지난 6개월 동안 GPT-4에 접근할 수 있었다고 말했습니다. “프로세스 초기에는 이전 버전과 크게 다르지 않은 것 같습니다.”

 

그는 화합물을 만들고, 반응 수율을 예측하고, 촉매를 선택하는 데 필요한 화학 반응 단계가 무엇인지 봇에 쿼리했습니다. White는 “처음에는 그다지 인상적이지 않았습니다. “매우 사실적으로 보일 것이기 때문에 정말 놀랐지만 여기에서는 원자를 환각시킬 것입니다. 거기에서 한 단계 건너뛸 것입니다.”라고 그는 덧붙입니다. 그러나 그의 레드팀 작업의 일환으로 그가 GPT-4에게 과학 논문에 대한 액세스 권한을 부여했을 때 상황이 극적으로 바뀌었습니다. “이러한 모델만으로는 그다지 훌륭하지 않을 수도 있다는 사실을 깨닫게 되었습니다. 하지만 역합성 플래너나 계산기와 같은 도구를 인터넷에 연결하기 시작하면 갑자기 새로운 종류의 능력이 나타납니다.”

 

그리고 그러한 능력에는 우려가 따릅니다. 예를 들어, GPT-4가 위험한 화학 물질을 만들 수 있습니까? White는 OpenAI 엔지니어가 White와 같은 사람들의 의견을 바탕으로 GPT-4가 위험하거나 불법적이거나 해로운 콘텐츠를 만드는 것을 막기 위해 모델에 피드백했다고 말합니다.

 

가짜 사실

허위 정보를 출력하는 것은 또 다른 문제입니다. Luccioni는 문장의 다음 단어를 예측하기 위해 존재하는 GPT-4와 같은 모델은 환각으로 알려진 가짜 사실을 생각해 낼 수 없다고 말합니다. “환각이 너무 많기 때문에 이런 종류의 모델에 의존할 수 없습니다.”라고 그녀는 말합니다. OpenAI는 GPT-4에서 안전성이 향상되었다고 말하지만, 이것은 최신 버전에서 여전히 우려 사항이라고 그녀는 말합니다.

 

교육에 사용되는 데이터에 액세스할 수 없으면 Luccioni의 안전에 대한 OpenAI의 보증이 부족합니다. “당신은 데이터가 무엇인지 모릅니다. 그래서 당신은 그것을 향상시킬 수 없습니다. 내 말은, 이와 같은 모델로 과학을 수행하는 것은 완전히 불가능하다는 것입니다.”라고 그녀는 말합니다.

 

GPT-4가 어떻게 훈련되었는지에 대한 미스터리는 암스테르담에 있는 van Dis의 동료인 심리학자 Claudi Bockting의 관심사이기도 합니다. “감독할 수 없는 것에 대해 책임을 지는 것은 인간으로서 매우 어렵습니다.”라고 그녀는 말합니다. “우려 중 하나는 예를 들어 인간이 스스로 가지고 있는 편견보다 훨씬 더 편향될 수 있다는 것입니다.” Luccioni는 GPT-4 뒤에 있는 코드에 액세스할 수 없으면 편향이 발생한 위치를 확인하거나 수정할 수 없다고 설명합니다.

 

윤리 토론

Bockting과 van Dis는 또한 점점 더 이러한 AI 시스템이 큰 기술 회사에 의해 소유되고 있다고 우려하고 있습니다. 그들은 기술이 과학자들에 의해 적절하게 테스트되고 검증되었는지 확인하기를 원합니다. “이것은 또한 빅테크와의 협력이 물론 프로세스 속도를 높일 수 있기 때문에 기회이기도 합니다.”라고 그녀는 덧붙입니다.

 

Van Dis, Bockting 및 동료들은 올해 초 AI 및 GPT-4와 같은 도구를 사용하고 개발하는 방법을 관리하기 위한 일련의 ‘살아있는’ 지침을 개발해야 할 긴급한 필요성을 주장했습니다. 그들은 AI 기술에 관한 모든 법률이 개발 속도를 따라잡기 어려울 것이라고 우려하고 있습니다. Bockting과 van Dis는 4월 11일 암스테르담 대학에서 이러한 문제를 논의하기 위해 UNESCO의 과학 윤리 위원회, 경제 협력 개발 기구, 세계 경제 포럼을 포함한 조직의 대표들과 함께 초청 정상 회담을 소집했습니다.

 

우려에도 불구하고 GPT-4와 그 미래 반복은 과학을 뒤흔들 것이라고 White는 말합니다. “인터넷이 큰 변화였던 것처럼 실제로 과학의 거대한 인프라 변화가 될 것이라고 생각합니다.”라고 그는 말합니다. 과학자를 대체하지는 못하지만, 일부 작업에는 도움이 될 수 있다고 덧붙였습니다. “종이, 데이터 프로그램, 우리가 사용하는 라이브러리, 전산 작업 또는 심지어 로봇 실험까지 연결할 수 있다는 사실을 깨닫기 시작할 것 같습니다.”

 

doi: https://doi.org/10.1038/d41586-023-00816-5