LIMA: Less Is More for Alignment
Large language models are trained in two stages: (1) unsupervised pretrainingfrom raw text, to learn general-purpose representations, and (2) large scaleinstruction tuning and reinforcement learning, to better align to end tasks anduser preferences. We measure the relative importance of these two…

토스 디자인 컨퍼런스, Simplicity23
오늘도 문제를 해결하고 있을 모든 디자이너에게

토스채용
공고 자세히 보기

초격차 패키지 : 21개 프로젝트로 완성하는 인터랙티브 웹 개발 with Three.js & Canvas | 패스트캠퍼스
21개 프로젝트, 약 92시간 분량의 인터랙티브 웹 강의. 인터랙티브 웹의 기초부터 Canvas.js를 활용한 2D, Three.js와 WebGL, Blender를 활용한 3D 인터랙티브 웹까지 구현해봅니다.
