Sergio Pantano: lo computacional aplicado a la investigación
Sergio Pantano, responsable del Laboratorio de Simulaciones Biomoleculares, llegó al instituto en sus inicios, luego de mudarse de Argentina a Italia para avanzar en su carrera.
En esta entrevista habla sobre los desafíos del área computacional a los que se enfrenta la región, las estrategias que usa su laboratorio para enfrentarlos y los cambios que trae la inteligencia artificial.
¿Cómo fue sumarse al instituto con una propuesta centrada en simulaciones computacionales?
Antes de llegar acá, estudié y trabajé diez años en Italia. En aquel entonces me pareció interesante la oportunidad de pertenecer a una institución con una trayectoria reconocida y volver a Sudamérica para estar más cerca de mi familia; también quería devolver a la región parte de lo que había aprendido. Desde el instituto, además, se entendía que no existe un centro de investigación en biología o en biomedicina sin componentes computacionales.
En los 16 años que llevo acá, las técnicas computacionales que se aplican a la investigación se han vuelto cada vez más robustas y confiables. Se han transformado definitivamente en un complemento de muchísimas investigaciones biomédicas, porque aportan una perspectiva estructural y dinámica a problemas que son difíciles de abordar desde aproximaciones experimentales.
¿Cómo se acompasa o adapta el laboratorio a los avances en un área tan cambiante como la tecnológica?
Desde el principio entendí que en la región es muy difícil ser competitivos en términos de los recursos que tenemos. Eso motivó algunas elecciones estratégicas que se convirtieron en una de las líneas principales de investigación del grupo, que es el desarrollo de modelos simplificados o computacionalmente económicos para estudiar la dinámica de proteínas o de ácidos nucleicos.
Ese fue un hito importante porque no existía en ese momento y aún no existe en Latinoamérica otro grupo que haya desarrollado métodos de simulaciones de grano grueso de la manera que hicimos nosotros, para permitir estudiar prácticamente todo lo que hay en familias de moléculas biológicas.
De todas formas, como es difícil estar a la par con recursos computacionales, nos apoyamos en aquellos a los que se puede acceder mediante grants o a través de colaboraciones con otros grupos. Por ejemplo, con Brasil, donde está el mayor centro de supercomputadoras en Latinoamérica, o con grupos en Europa o en menor medida en Estados Unidos.
También nos preocupamos desde el inicio por entender las opiniones de gente que ya estaba en esa área, organizamos una serie de workshops, congresos y cursos. Eso nos ayudó bastante a entender cuáles iban a ser las prioridades y hacia dónde desarrollar cosas. Dedicamos bastante tiempo a que lo que hacíamos fuera fácil de utilizar para otras personas, por eso establecimos tutoriales que sean sencillos de seguir y generamos cursos que no se hacían en la región en formato Open Lab, en los cuales las personas vienen con un problema específico y nosotros los ayudamos a resolverlo.
Casi ninguna de estas cosas las hacemos solos. El ambiente del instituto es un catalizador importante.
¿Cuáles fueron los principales hitos del laboratorio desde su creación hasta ahora?
Podría decir que los principales hitos fueron tanta cantidad de papers o de grants, pero me gusta pensar que los principales hitos son la generación de una diversidad mayor en cuanto a aproximaciones teóricas o computacionales que están disponibles para la comunidad científica. A lo largo de estos años hemos logrado colaborar con investigadores de dentro del instituto, de universidades del país y también con gente de Latinoamérica.
El grupo también trabajó en la generación de conocimiento nuevo y participó activamente en la creación de redes de contactos entre científicos que retornaron al continente con la creación de los ministerios de Ciencia y Tecnología en Argentina y Brasil.
Hoy hay una colaboración bastante grande; hemos recibido este año ya cuatro o cinco pasantes utilizando distintos programas de movilidad para científicos. Estamos contentos de ofrecerle a investigadores uruguayos o de la región alternativas que son competitivas a nivel mundial.
Acá se pueden generar recursos humanos que son competitivos, que después ganan concursos en el exterior. Eso para mí es uno de los logros más importantes.
¿Cómo influye la inteligencia artificial en el campo computacional y en tu laboratorio?
El desarrollo de técnicas de inteligencia artificial está en plena efervescencia. Aún no la hemos utilizado en el desarrollo de métodos que hacemos nosotros, pero acabamos de comenzar un proyecto en el cual pensamos utilizar inteligencia artificial para mejorar interacciones entre proteínas aprendiendo de datos que ya hemos generado o que están disponibles gracias a otros grupos. Estudiamos, por ejemplo, cómo dos moléculas interaccionan entre ellas y generamos parámetros o reglas que nos permiten entender cómo otras moléculas van a interaccionar.
La inteligencia artificial trae cambios a los que nos vamos a tener que adaptar rápidamente y mientras más rápido lo hagamos, mejor. Hoy se piensa que la frontera es predecir interacciones de proteínas que no tienen una estructura bien definida, pero es difícil entender hoy si la IA puede llegar a resolver eso, porque se necesitan muchos datos que todavía no existen.
¿Cuáles son los principales proyectos o ideas a futuro que tienen en el laboratorio?
Estamos trabajando en la utilización de métodos que son computacionalmente muy baratos para estudiar la dinámica del ensamblado y la estabilización de partículas virales. En particular, tenemos dos proyectos grandes que están asociados a la estabilidad de partículas de flavivirus (género al que pertenecen el zika, el dengue y la fiebre amarilla, por ejemplo). Uno de ellos se centra en entender cómo se ensamblan al menos algunos componentes dentro de la envoltura de los flavivirus.
En el otro proyecto, que realizamos dentro de Protemca, utilizamos métodos computacionales para diseñar partículas de circovirus que sean lo más estables posibles para que puedan ser utilizadas como vacunas para cerdos. La primera parte es computacional y después nos apoyaremos en colegas experimentales.
Además, como siempre sucede en la ciencia, cuando se responde alguna pregunta, cada respuesta trae preguntas nuevas que generan y definen nuevas líneas de trabajo. Si bien nuestro objetivo inicial era el de usar el cascarón externo de las partículas como vacunas, hemos comenzado a entender el modo en que se reconocen y ensamblan las proteínas y el material genético de una familia viral. Esperamos que esto nos permita en el futuro utilizar partículas pseudovirales modificadas como sistemas de «delivery» de mensajes biológicos dentro de células.
Pensamos que esta línea de trabajo en la frontera entre investigación básica y biotecnología nos va a tener entretenidos por los próximos cinco años.