¿Cómo lo hace?

Hasta el momento poco se sabe del sistema interior del nuevo modelo de OpenAI, la compañía ha explicado que funciona bajo una “cadena de pensamiento”, donde utiliza la lógica para explicarse a sí mismo una serie de pasos de razonamiento a la hora de resolver un problema.

Esto le toma más tiempo y lo hace más lento en sus respuestas, pero con una calidad mucho mejor. Además, el modelo puede corregirse a sí mismo sobre la marcha.

La compañía mantiene los detalles confidenciales, ya que todavía hay ciertas falencias, como el sesgo humano o las “alucinaciones”, propias de la IA, cuando entregan resultados engañosos o inventados.

No está claro, si la cadena de pensamiento completa, si se revelara, se parecería al razonamiento humano”, aclaró Andrew White.

Además, todavía no se le da muy bien razonar situaciones que pueden ser de riesgo. El modelo presentó “información de seguridad faltante relacionada con pasos dañinos, como no destacar peligros explosivos o sugerir métodos inapropiados de contención química, lo que indica que el modelo no es adecuado para tareas de seguridad física de alto riesgo”.

“Aún no es lo suficientemente perfecto ni fiable como para que no quieras comprobarlo de cerca”, señala White.