
Aparte de que últimamente el chat de OpenAI es muchos network error, puede ser que también esté bajando la calidad de las respuestas?
Ahora como que se enrolla en explicar que tienes que instalar x cosa y va mucho más línea por línea.
Por ejemplo le preguntas algo de node y te suelta que primero tienes que instalarlo, luego crear un fichero luego instalar tal librería y así, antes iba más al grano yo creo
Pinta a que dentro de muy poco lo limiten y sea de pago, yo creo que ya han pillado entrenamiento de sobra. ¿Saldrá un modelo entrenado open source para ejecutarlo en local? No tengo ni idea pero seguramente sea imposible con la cantidad de información que manejan