Con la ayuda de ChatGPT un par de científicos del Technion (Israel Institute of Technolog) lograron escribir un «paper» (artículo de investigación) en menos de una hora. El objetivo era explorar las capacidades de ChatGPT como un «copiloto» de investigación, pero se reconocen los desafíos que deben superarse antes de que la herramienta sea verdaderamente útil.
Los científicos utilizaron un conjunto de datos del US Centers for Disease Control and Prevention’s Behavioral Risk Factor Surveillance System. Estos incluían información sobre la salud (en especial diabetes) de más de 250.000 personas además de información adicional sobre su consumo en frutas y verduras así como su actividad física.
Luego pidieron a ChatGPT que generara código para analizar dichos datos y aunque el primer intento de ChatGPT tuvo errores, finalmente generó un código útil para explorar los datos.
Después, los investigadores solicitaron a ChatGPT que les ayudara a desarrollar un objetivo de estudio y que generara código adicional. ChatGPT proporcionó resultados que indicaban que comer más frutas y verduras y hacer ejercicio se relaciona con un menor riesgo de diabetes. También ayudó a redactar diferentes secciones del artículo.
Aunque el artículo generado fue claro y presentó un análisis sólido, no fue perfecto. ChatGPT tenía tendencia a inventar información y llenar vacíos con datos falsos o imprecisos… lo que se llama alucinaciones de la IA (equivalente a las respuestas de cuñado ilustrado). La IA proporcionará siempre un resultado y en muchos casos con información incorrecta, aunque plausible. Si tiene que inventar legislaciones, referencias o leyes de la física, lo hará.
Los investigadores reconocen que aún hay desafíos por superar, como el riesgo de prácticas deshonestas y la inundación de revistas científicas con artículos de baja calidad. Sin embargo, ven el potencial de las herramientas de IA generativas en el proceso de investigación, aunque con la necesidad de supervisión humana y mayor visibilidad de su uso en los artículos científicos.
¡Qué miedo! ¿No?
582
Según comentaron ayer, GPT-4 próximamente estará disponible para «todos». Este nuevo modelo de generación de texto mejora a su predecesor, GPT-3.5, al aceptar tanto texto como imágenes como entrada.
Aunque GPT-4 no es perfecto y puede cometer errores de razonamiento, OpenAI planea permitir a los desarrolladores ajustar el modelo con sus propios datos en el futuro.
Estamos presenciando avances significativos en la inteligencia artificial y las posibilidades de aplicaciones innovadoras utilizando GPT-4 son cada vez mayores. ¡El futuro de los modelos de lenguaje es prometedor!
Evidentemente el ÉXITO de ChatGPT o de cualquier herramienta de IA o estadística depende de los datos utilizados en el proceso de entrenamiento.
Aunque no es un proceso sencillo y requiere de un buen conocimiento del problema a resolver / modelar aquí intentan resumirlo en cinco etapas.
Sin duda sabréis que empiezan a aparecer multitud de aplicaciones para detectar que ciertas noticias/ “papers” han sido escritas por ChatGPT o similares.
Lo que probablemente no sabréis es que se ha comprobado que si la persona que lo escribe no es angloparlante tiene el 95% de posibilidades que su creación sea etiquetada incorrectamente como hecha por ChatGPT.