La revista Nature publicó un trabajo que describe a ‘The AI Scientist’, una arquitectura basada en grandes modelos de lenguaje. Esta IA científica automatiza el ciclo científico completo. Genera hipótesis, programa y ejecuta experimentos en entornos controlados, analiza resultados y redacta manuscritos, lo que marca un antes y un después en la investigación automatizada.
Cómo funciona la IA científica
Los autores lograron que el sistema no solo proponga ideas sino que escriba código para probarlas en simulaciones, confeccione gráficos y arme un manuscrito con formato de revista. Un documento derivado pasó filtros de evaluación y fue aceptado en una conferencia de primer nivel; además, producir un artículo cuesta apenas unos 15 dólares en recursos computacionales.
La plataforma opera en cajas de arena ya que utiliza plantillas de código y el conocimiento acumulado en la literatura para explorar variantes. No está redescubriendo leyes físicas desde cero. Su fortaleza es optimizar y encontrar pequeñas mejoras, especialmente en algoritmos y análisis de datos, no en generar saltos paradigmáticos que cambien disciplinas enteras.
IA científica: riesgos y limitaciones
El trabajo advierte sobre las llamadas alucinaciones científicas. La IA puede inventar referencias, duplicar figuras o cometer fallas lógicas que parecen plausibles. En ciencia eso equivale a falsear credenciales y, sin revisión humana rigurosa, se corre el riesgo de llenar repositorios con papers con apariencia técnica pero con contenidos erróneos o interpretaciones sesgadas.
La automatización llega en un momento crítico para el sistema académico: la lógica del Publish or Perish ya prioriza volumen sobre calidad. Si servidores generan miles de artículos por día, el estudio imagina cifras muy altas, la revisión por pares, basada en trabajo voluntario, puede colapsar y se multiplicaría la literatura irrelevante que entorpece el progreso real.
Ante ese panorama, el artículo propone un cambio de rol dado que los científicos deben mutar de ejecutores a diseñadores y auditores de sistemas. El valor humano será detectar sesgos, corregir alucinaciones y fijar prioridades éticas. La inteligencia artificial podrá escribir el paper, pero solo el juicio crítico y la responsabilidad humana pueden validar su veracidad y su relevancia.
Fuente: La 100







