Pre-training as we know it will unquestionably end

Pre-training as we know it will unquestionably end

avatar
BSPK
2024.12.23조회수 7회

https://youtu.be/1yvBqasHLZs?si=a8w5IVHfcnAI_Uqy


최근 NIPS에서 Ilya Sutskever의 스피치가 있었다.

매년 NIPS에서는 10년 전 NIPS에 나왔던 논문 중에 현재까지 좋은 영향을 미치고 있는 논문을 선정해서 상을 주는데(상 이름은 까먹음) transformer의 전신이 되었던 Seq-to-Seq이 받았다.

Sutskever는 해당 논문의 저자로 수상과 함께 위의 스피치를 했다.


긴 이야기를 했지만 짧게 줄이자면


"기존의 Scaling Law는 끝났다"


Scaling Law라 하면 모델의 크기, 학습 데이터, 학습 컴퓨팅이 지수적으로 증가하면, 모델의 성능은 선형적으로 증가한다는 것이다. 그런데 데이터가 더이상 없다.

We have to deal with the data that we have. There’s only one internet.

A screenshot of Ilya Sutskever’s talk. He is on the left, and on the right the slide says: pre training as we know it will end. Compute is growing, better hardware, better algorithms, larger clusters. Data is not growing, we have but one internet, the fossil fuel of AI.

이미 올 초 GPT-5 출시가 연기되는 시점부터 Scaling Law는 끝났다는 이야기가 돌고 ...

회원가입만 해도
이 글을 무료로 읽을 수 있어요.

이미 계정이 있으신가요?로그인하기
댓글 0
avatar
BSPK
구독자 427명구독중 9명
전자전기공학 박사, AI 연구자를 거쳐 전략기획 업무를 합니다. 기술의 발전이 가져올 세상의 변화를 먼저 포착하고 전달하고자 합니다.