La línea que separa la tecnología de la biología es cada vez más difusa. A raíz del avance en ambos campos, hemos conocido proyectos tan ambiciosos como el uso de tejido cerebral para alimentar ordenadores, una idea tan alocada como curiosa que está llevando a varios investigadores a buscar los límites del sector. Sin embargo, la convergencia acelerada entre biología e inteligencia artificial, el campo estrella de la tecnología, está dando pie a posibilidades científicas útiles y, al mismo tiempo, a nuevas superficies de riesgo.
Un ejemplo perfecto podría ser la creación de proteínas diseñadas por inteligencia artificial. A priori, se trata de una idea interesante, pero algunos expertos aseguran que podrían llegar a burlar controles restrictivos que darían pie a numerosos problemas. Aún así, también es importante tener en cuenta que las mejoras acumuladas desencadenan capacidades inesperadas y, por ello, la validación experimental, las métricas robustas y la evaluación continua del peligro son tres aspectos necesarios.
A su vez, la tecnología también se ha colado en los laboratorios a través de pequeños cerebros que podrían alimentar la próxima generación de la computación. Esto suena como una hipótesis alocada y, por ello, hay que tener en cuenta un aspecto: ni esta idea ni la anterior buscan reemplazar a las opciones existentes, sino convertirse en una vía interesante de estudio que dé pie a teorías interesantes. Por ello, por ejemplo, la biocomputación y sus posibilidades no compiten en velocidad o escala contra el silicio, sino que apunta a nichos como reducción de ensayos animales o tareas especializadas.
Microsoft está al tanto de la situación
Un equipo liderado por Microsoft, uno de los gigantes del sector tecnológico, ha denunciado que estamos ante un posible "día cero biológico". Según revelaron sus estudios, parece ser que los filtros que analizan pedidos de ADN pueden pasar por alto proteínas tóxicas diseñadas por inteligencia artificial. Por ello, han alzado la voz para pedir una respuesta coordinada que se apoye en parches rápidos en software de cribado.
Paralelamente, FinalSpark (una empresa suiza especializada en investigación) está cultivando organoides neuronales a partir de células madre con la intención de crear lo que denominan "wetware": una red de mini cerebros conectados a ordenadores que traducen señales eléctricas. Así, estaríamos ante el primer paso hacia un procesamiento biológico con aplicaciones de nicho, pero hay un problema: la hipótesis de la seguridad y viabilidad que rodea a ambos proyectos.
En lo relativo a las proteínas diseñadas por IA, existe el riesgo de que genere proteínas funcionalmente tóxicas que, además, sean capaces de evadir filtros basados en similitud. De esta forma, el riesgo invita a actualizar listas, algoritmos y criterios de alerta antes de un uso malicioso. Por otra parte, la viabilidad de la biocomputación es frágil: los organoides no sobreviven más allá de unos meses y, por ende, requieren cuidados constantes que están ligados a los picos eléctricos que muestran antes de morir. Por ello, es más difícil mantenerlos vivos que gestionar hardware de silicio.
Así, aunque no es la primera vez que un equipo de investigación se adentra en un campo tan complejo como la computación biológica, lo cierto es que la tónica sigue siendo la misma: es muy difícil que los proyectos consigan prosperar. Un ejemplo de ello sería Cortical Labs, una iniciativa que probó sistemas de aprendizaje simple con neuronas y utilizó las virtudes de estos para estudiar el alzheimer o el autismo. Por desgracia, no consiguieron reforzar el rendimiento computacional puro, sino el valor biomédico de la investigación.
Los problemas de una IA con intenciones maliciosas
De esta forma, a pesar de que la tecnología ya es una de las aliadas principales de la biología, lo cierto es que tiene mucho que mejorar en campos como la seguridad o la viabilidad. De momento, pocas variantes diseñadas serían realmente tóxicas, pero la existencia de unas pocas ya es motivo de preocupación. De hecho, aún aplicando parches y controles exhaustivos, se estima que entre un 1% y 3% de variantes dañinas consiguen eludir cualquier tipo de foco.
Por su parte, los defensores del "wetware" asumen que su idea tiene límites. En términos de velocidad, son conscientes de que están a años luz de las capacidades de los chips. Sin embargo, creen que su principal virtud es la eficiencia energética, el aprendizaje continuo y el modelado biológico real, tres variantes que le llevarían a, por ejemplo, solventar los problemas relacionados con el consumo energético. Además, muchos también ensalzan que conseguirían reducir los ensayos animales al mismo tiempo que aportan perspectivas únicas sobre circuitos neuronales.
De esta forma, la conclusión en ambos campos es la misma: se deben priorizar las mejoras técnicas y, al mismo tiempo, la búsqueda de la seguridad y la viabilidad. Así, una manera de llevar a cabo esto sería a través del diseño de controles adaptativos y de la creación de leyes éticas en torno al uso de tejido humano. Si consiguen evolucionar este campo, podríamos llegar a aprovechar las aplicaciones útiles del mismo, pero también hay que tener en cuenta que la innovación siempre va ligada a la escalada de riesgos.
Imagen principal de 3DJuegos
En 3DJuegos | India se posiciona ante las grandes tecnológicas, y su plan contra Google, Microsoft y Meta echa a andar
En 3DJuegos | Los hackers han jugado con el punto débil de Japón: no es el agua, sino la bebida que les vuelve locos
Ver 0 comentarios