/GPT3-en-espannol

🧠 Aquí mostramos como al escalar el tamaño del modelo mejora en gran medida el rendimiento el perfomance de pocos intentos o few shots, a veces incluso alcanzando niveles de competitividad con enfoques anteriores de vanguardia con fine tuning. Específicamente, entrenamos GPT-3, un modelo de lenguaje con 175 mil millones de parámetros, 10 veces más que cualquier modelo non-sparse anterior, y probamos su rendimiento en la configuración few shots.

Stargazers