/GPT3-en-espannol

šŸ§  AquĆ­ mostramos como al escalar el tamaƱo del modelo mejora en gran medida el rendimiento el perfomance de pocos intentos o few shots, a veces incluso alcanzando niveles de competitividad con enfoques anteriores de vanguardia con fine tuning. EspecĆ­ficamente, entrenamos GPT-3, un modelo de lenguaje con 175 mil millones de parĆ”metros, 10 veces mĆ”s que cualquier modelo non-sparse anterior, y probamos su rendimiento en la configuraciĆ³n few shots.

Issues