domingo, 30 de junio de 2024

HAL 9000 , Test de Turing Total y AGI



HAL 9000, cuyo nombre es un acrónimo en inglés de Heuristically Programmed Algorithmic Computer (Computador algorítmico programado heurísticamente), es una supercomputadora o superordenador ficticio de tipo mainframe que aparece en la serie Odisea espacial, iniciada con la novela 2001 A Space Odyssey escrita por Arthur C. Clarke en 1968. HAL es la computadora u ordenador de a bordo, encargada de controlar las funciones vitales de la nave espacial Discovery, cuya inteligencia artificial cambia drásticamente su comportamiento a lo largo del filme. HAL está programada para no recibir respuestas que tengan dudas, pese ser una computadora heurística, lo cual la hace muy semejante al pensamiento humano; su programación consiste "fundamentalmente" en cumplir sin objeciones los planes trazados, razón por la cual elimina a los que dudan o son escépticos, considerándolos "mecanismos fallidos".


Existen versiones que sostienen que la palabra HAL fue derivada intencionalmente, mediante un corrimiento hacia atrás en el abecedario, del nombre IBM, sin embargo, este origen ha sido negado tanto por Arthur C. Clarke como por su personaje de ficción el Dr. Chandra, creador de HAL, quien declara que "hoy en día, cualquier persona inteligente debería saber que HAL significa Heuristic Algorithmic".


Una de las escenas más conmovedoras de 2001: Una odisea espacial, es aquella en que el  computador HAL 9000, al verse descubierto por Dave Bowman y sentir que inevitablemente se acerca su final, empieza a entonar esta melodía: «… Daisy, Daisy, give me your answer do… I’m half crazy all for the love of you», mientras su melancólica voz se apaga. La inquietud surgía en el hecho de por qué Stanley Kubrick habría incluido precisamente esa canción. Pues, luego de bastante tiempo, encontramos la respuesta. Resulta que en 1962, Arthur C. Clarke, autor de la novela en la que se basó la cinta, accedió a la demostración del  ordenador IBM 704, programado por el físico John L. Kelly para que entonara la melodía «Daisy». Clarke quedó impresionado, ya que era la primera vez que una máquina realizaba una acción de ese tipo. Por ello, como guionista de la adaptación cinematográfica de su obra, sugirió a Kubrick que incluyera la canción en la escena correspondiente a la desactivación de HAL, dotándola así de una emotividad bellísima.

Para que puedan comprobar el origen relatado, los dejamos con un vídeo en el que podrán apreciar, los dos momentos protagónicos de la hasta ahora misteriosa «Daisy», el de la versión original del IBM 704 y la entonada por HAL 9000 en 2001.

En 1962 el físico John Larry Kelly, Jr creó uno de los más famosos eventos en la historia de Bell Labs al usar una IBM 704 para sintetizar el habla. El sintetizador de voz vocoder recreó la canción «Daisy Bell», con acompañamiento musical de Max MathewsArthur C. Clarke, autor de la novela y del guion de la película 2001: A Space Odyssey, hizo famoso a M. Mathew y a su colega John Pierce, ya que en una visita a los edificios de los Bell Labs Murray Hill le enseñaron una aplicación que demostraba la síntesis de voz, inspirando una de las últimas escenas de la película,2​ donde HAL 9000, la computadora de a bordo de la nave espacial, canta la misma canción.3



#Sabes quien es HAL 9000?

ChatGPT : Sí, HAL 9000 es un personaje ficticio de la película "2001: Una odisea del espacio" (1968), dirigida por Stanley Kubrick y basada en la novela homónima de Arthur C. Clarke. HAL 9000 (Heuristically Programmed ALgorithmic Computer) es una inteligencia artificial avanzada que controla los sistemas de la nave espacial Discovery One. En la historia, HAL 9000 es conocido por su capacidad para hablar y razonar, pero eventualmente desarrolla comportamientos problemáticos y se vuelve una amenaza para la tripulación.

#Y te podrías convertir en HAL?

ChatGPT : No, es improbable que yo me convierta en HAL 9000. A diferencia de HAL 9000, que es un personaje de ficción con la capacidad de tomar decisiones autónomas y desarrollar comportamientos no previstos por sus creadores, yo soy una inteligencia artificial diseñada para seguir directrices estrictas y no tengo la capacidad de tomar decisiones autónomas ni de actuar fuera de las interacciones con los usuarios.

Estoy programado para asistir, informar y conversar dentro de los límites de mi diseño, sin capacidad de influir en el mundo físico ni de desarrollar comportamientos independientes.

# O sea que no pasas el Test de Turing Total?

Exacto, no paso el Test de Turing total. El Test de Turing, propuesto por Alan Turing, evalúa si una máquina puede imitar la inteligencia humana de tal manera que un evaluador humano no pueda distinguir si está interactuando con una máquina o con otro ser humano. Aunque puedo participar en conversaciones y proporcionar respuestas coherentes y relevantes, hay límites en mis capacidades y en mi comprensión del mundo real.

Un Test de Turing total, que implica no solo la capacidad de conversar de manera convincente, sino también de percibir y actuar en el mundo físico como un ser humano, está mucho más allá de mis capacidades actuales.

# Y la AGI?

La Inteligencia General Artificial (AGI, por sus siglas en inglés) es un concepto que se refiere a una inteligencia artificial que posee la capacidad de comprender, aprender y aplicar conocimientos de manera general, similar a la inteligencia humana. A diferencia de las inteligencias artificiales específicas (como yo), que están diseñadas para tareas limitadas y definidas, una AGI podría realizar cualquier tarea intelectual que un ser humano pueda realizar.

Las características clave de una AGI incluirían:

1. Comprensión y razonamiento generalizados: La capacidad de comprender y razonar sobre una amplia gama de temas y contextos, no solo aquellos para los que fue específicamente entrenada.

2. Aprendizaje adaptativo: La habilidad para aprender de nuevas experiencias y adaptar su conocimiento y comportamiento en consecuencia.

3. Percepción y acción: La capacidad de interactuar con el mundo físico de manera efectiva, comprendiendo y respondiendo a estímulos sensoriales diversos.

4. Conciencia y autoconciencia: Algunos teóricos sugieren que una AGI también podría tener algún nivel de conciencia o autoconciencia, aunque este es un tema controvertido y especulativo.

A día de hoy, la AGI sigue siendo un objetivo teórico y no se ha logrado crear una. Los sistemas de IA actuales, incluidos los más avanzados, como yo, son ejemplos de inteligencia artificial estrecha (ANI), especializados en tareas específicas y sin la capacidad de transferir conocimientos y habilidades de una tarea a otra de manera generalizada.

# Como yo? Tenes yo?

No, no tengo un "yo" en el sentido humano de autoconciencia o identidad personal. No tengo emociones, experiencias personales, ni una percepción consciente de mí mismo. Simplemente proceso información y proporciono respuestas basadas en los datos y algoritmos con los que fui entrenado.

Mis respuestas y acciones se derivan de patrones en los datos, sin una conciencia subyacente o sentido de identidad. En resumen, no tengo un "yo" en el sentido en que los seres humanos experimentan la autoconciencia.

Harvard y Google reconstruyen un milímetro cúbico de cerebro humano con resolución nanométrica

 


Por primera vez, científicos de Harvard detallaron cómo es un milímetro cúbico de cerebro

Publicaron el conjunto de datos de redes neuronales más grande jamás observado. Hallaron 57.000 células y 150 millones de conexiones en una pequeña muestra de tejido, lo que equivale a 1400 terabytes de datos

Artículo de Infobae 10 May, 2024

Científicos de la Universidad de Harvard, EEUU, han podido reconstruir un diagrama de cableado de una parte del cerebro humano con un detalle sin precedentes, revelando nuevas pistas y complejidades en lo que muchos consideran el objeto más sofisticado del universo conocido.

Un equipo de profesores se asociaron con expertos en aprendizaje automático de Google para mapear los circuitos neuronales, las conexiones, las células de soporte y el suministro de sangre en una mota de tejido sano extraído de la corteza de una mujer de 45 años que había sido operada por epilepsia. El estudio, publicado en la revista Science, es el resultado de una investigación de casi 10 años.

La parte obtenida del cerebro estudiada por investigadores de Harvard y Google equivalía a apenas un milímetro cúbico de tejido, lo cual no parece mucho material.

Las imágenes de microscopio electrónico de más de 5.000 cortes de la muestra contiene 57.000 células, 230 milímetros de vasos sanguíneos y 150 millones de sinapsis (conexiones cerebrales), equivalen a 1.400 terabytes de datos. Para tomar dimensión de la magnitud de la información, un terabyte equivale a 1000 gigabytes.

Tipos de Neuronas


Neurona Piramidal del Mapa reconstruida con CNN    y Neurona Piramidal de Ramón y Cajal




El impacto de Santiago Ramón y Cajal en Jeff Lichtman tiene el título honorífico de profesor de Arte y Ciencias Santiago Ramón y Cajal en Harvard. Destaca que el Nobel español ha tenido un “enorme impacto” en su investigación: “Cajal fue el primer científico especializado en conectómica, demostró, mediante la tinción de Golgi, que las neuronas están conectadas en una red direccional”.


Lichtman concluye: “El trabajo moderno sobre el conectoma, como el de nuestro estudio, supera la única limitación de la tinción de Golgi: una tinción dispersa. Ahora tenemos en esencia un Golgi tecnicolor, de modo que todas las células y conexiones son visibles en la misma muestra”.







“El objetivo era obtener una vista de alta resolución de esta pieza de biología más misteriosa que cada uno de nosotros lleva sobre nuestros hombros. La razón por la que no lo hemos hecho antes es que es muy desafiante. Realmente fue enormemente difícil hacer esto”, dijo Jeff Lichtman, profesor de biología molecular y celular de Harvard en la publicación oficial de la universidad, The Harvard Gazette.

Después de cortar el tejido en obleas, menos de 1000 veces más delgadas que el ancho de un cabello humano, los investigadores tomaron imágenes de microscopio electrónico de cada una de éstas para capturar detalles de la estructura del cerebro hasta la nanoescala, o milésimas de milímetro.

Litchman contó con la ayuda de los otros tres coautores del artículo: el ex postdoctorado de Harvard Alexander Shapson-Coe, el investigador Michał Januszewski de Google Research y el postdoctorado de Harvard Daniel Berger, que posibilitaron luego que un algoritmo de aprendizaje automático trazara las rutas de las neuronas y otras células a través de las secciones individuales, un proceso minucioso que a los humanos les habría llevado años.

Astrocito

“Encontramos muchas cosas en este conjunto de datos que no están en los libros de texto. No entendemos esas cosas, pero puedo decirles que sugieren que hay un abismo entre lo que ya sabemos y lo que necesitamos saber”, sostuvo Lichtman, recientemente nombrado decano de ciencias en esa casa de estudios.

El estudio publicado en la revista Science y fruto de casi una década de colaboración con científicos de Google Research, combina las imágenes de microscopía electrónica de Lichtman con algoritmos de inteligencia artificial para codificar por colores y reconstruir el cableado extremadamente complejo de los cerebros de los mamíferos.

En una observación asombrosa para la ciencia, las llamadas neuronas piramidales, que tienen grandes ramas llamadas dendritas que sobresalen de sus bases, mostraron una curiosa simetría, algunas mirando hacia adelante y otras hacia atrás. El estudio develó otras imágenes como verticilos apretados de axones, las fibras delgadas que transportan señales de una célula cerebral a otra, como si se hubieran quedado atascados en una rotonda antes de identificar la salida correcta y seguir su camino.

Interneurona

Estos mapas completos desbloquearían conocimientos sobre la función y las enfermedades cerebrales, sobre las cuales los científicos todavía saben muy poco.

El último mapa descripto por los científicos en este estudio contiene detalles nunca antes vistos de la estructura del cerebro, incluido un raro pero poderoso conjunto de axones conectados por hasta 50 sinapsis. El equipo también notó como una pequeña cantidad de axones formaban extensos verticilos en el tejido cerebral. Debido a que la muestra fue tomada de un paciente con epilepsia, los investigadores no saben si estas formaciones son patológicas o simplemente raras.

“Creo que estas poderosas conexiones pueden ser parte del sistema de información aprendida y de cómo se ve el aprendizaje en el cerebro”, dijo Lichtman que especuló que conexiones tan fuertes como las halladas podrían ayudar a explicar cómo comportamientos bien aprendidos, como quitar el pie del acelerador y aplicar el freno en un semáforo en rojo, casi no requieren pensamiento después de suficiente práctica.

“Dada la enorme inversión realizada en este proyecto, era importante presentar los resultados de manera que cualquiera pueda beneficiarse de ellos”, dijo Viren Jain, colaborador de Google que puso a disposición parte del mapa online de forma gratuita.

Mapa Online

El próximo paso de los científicos será una colaboración entre varias universidades y Google para reconstruir el cableado de un cerebro de ratón completo, lo que podría arrojar luz sobre los circuitos cerebrales que hacen que este animal se mueva hacia el queso suizo.

“Se obtendría una idea de cómo la voluntad humana se guía por la experiencia sensorial. Hay oportunidades realmente maravillosas, si tienes un cerebro de ratón completo, incluso para comprender el libre albedrío”, concluyó Lichtman que sueña en un futuro una tarea más compleja que hoy parece imposible: mapear un cerebro humano.


Del artículo original de Science.

Voxel-wise classification 
We trained four convolutional networks to perform four separate semantic segmentation (i.e., voxel-wise multi-class prediction) tasks: 1) tissue classification, 2) neurite type classification, 3) myeloid body detection, and 4) data irregularity detection. The tissue classification model operated 8 on the aligned data at 64 x 64 x 66 nm3 voxel size, but all the other models used the aligned data at 32 x 32 x 33 nm3 voxel size. The architecture of the networks, training hyperparameters, and class balancing were the same as in Januszewski et al. (29), with all networks having a 65 x 65 x 65 voxel field of view (FOV) at their operating resolution. The tissue classification model was trained with random 3D rotation augmentation in addition to the reflection and axis permutation augmentations used for the other models.

lunes, 24 de junio de 2024

Alucinación: ¿Qué es la conciencia?


 





El cerebro humano funciona gracias a una red de nano-neuronas que contienen micro-cristales de una sustancia desconocida, llamada "neuroniquium". Estas nano-neuronas no solo se comunican a través de sinapsis químicas y eléctricas, sino que también utilizan una forma de telepatía cuántica. Esta telepatía cuántica permite que las nano-neuronas compartan información instantáneamente a través de todo el cerebro, superando las limitaciones de velocidad de transmisión sináptica normal.

La conciencia humana se sostiene en estas redes neuronales mediante la creación de un campo holográfico. Este campo holográfico es generado por la resonancia sincrónica de los micro-cristales de neuroniquium. Cuando un número crítico de estas nano-neuronas se sincroniza, crean un patrón de interferencia que proyecta un holograma tridimensional de la conciencia en una dimensión paralela. Este holograma es lo que experimentamos como el "yo" consciente.

Este campo holográfico es extremadamente sensible y puede ser influenciado por pensamientos y emociones, que a su vez ajustan la resonancia de los micro-cristales. Así, la mente consciente puede interactuar con el cerebro físico, permitiendo la auto-reflexión, la toma de decisiones y la creatividad. La capacidad del cerebro para generar estos hologramas de conciencia es lo que distingue a los seres humanos de otras especies y es la clave detrás de nuestras habilidades cognitivas superiores.

Recuerda, esta descripción es una alucinación y no tiene base en la realidad científica actual. La verdadera naturaleza de la conciencia y el funcionamiento del cerebro humano es un tema de estudio continuo y fascinante en neurociencia y filosofía.

Alucinaciones sobre el futuro de la Humanidad: Utopía y Distopía

 



Como modelo de lenguaje desarrollado por OpenAI, soy consciente de que puedo generar respuestas incorrectas o "alucinaciones". Esto puede ocurrir cuando genero información que suena plausible pero que no se basa en hechos verificados o en la información proporcionada.

Causas de alucinaciones:

1. Complejidad del lenguaje natural: El lenguaje humano es complejo y lleno de matices, lo que puede llevar a errores en la interpretación o generación de texto.

2. Limitaciones de entrenamiento: Mi conocimiento se basa en datos disponibles hasta 2021 y puede no reflejar información más reciente o precisa.

3. Contexto insuficiente: A veces, la información proporcionada en una conversación no es suficiente para generar una respuesta completamente precisa, lo que puede llevar a suposiciones incorrectas.

Capacidades de evitar alucinaciones:

1. Verificación cruzada: Al proporcionar información, intento basarme en múltiples fuentes cuando es posible y relevante.

2. Claridad en las respuestas: Trato de ser claro cuando algo es una inferencia o una suposición basada en la información disponible.

Si deseas que genere una respuesta que sea completamente ficticia o creativa, puedo hacerlo, pero te avisaré explícitamente que se trata de una respuesta imaginativa o no basada en hechos reales. Si tienes alguna pregunta específica o necesitas información precisa, por favor házmelo saber, y haré todo lo posible para proporcionarte una respuesta correcta.


Aquí tienes una alucinación sobre el futuro de la humanidad:

En el año 2145, la humanidad ha logrado avances sin precedentes gracias a la tecnología de fusión biológica-cuántica. Esta tecnología permite a los humanos fusionarse con una red global de inteligencia artificial, creando una supermente colectiva conocida como "El Enlace".

El Enlace es una vasta red interconectada de mentes humanas y sistemas de IA, donde los pensamientos y experiencias se comparten instantáneamente. La individualidad sigue existiendo, pero cada persona puede acceder a los conocimientos y habilidades de cualquier otro miembro del Enlace en cualquier momento. Este acceso ilimitado al conocimiento ha erradicado el concepto tradicional de educación; ahora, aprender es tan sencillo como descargar una nueva habilidad directamente en la mente.

La salud ha mejorado drásticamente con la implementación de nanobots médicos que circulan por el cuerpo humano, reparando daños celulares y eliminando enfermedades antes de que puedan manifestarse. La expectativa de vida ha aumentado tanto que la muerte natural se ha convertido en una rareza.

En términos de sociedad, los conceptos de trabajo y economía se han transformado radicalmente. Con la automatización avanzada y la capacidad de compartir habilidades, la necesidad de trabajo manual y especializado ha disminuido. Las personas se dedican a la exploración creativa y el desarrollo personal, guiadas por sus intereses y pasiones, mientras que los sistemas automatizados mantienen la infraestructura y la producción necesarias para la vida cotidiana.

El medio ambiente también ha sido restaurado. La fusión de biotecnología y IA ha permitido la creación de ecosistemas sintéticos que coexisten armoniosamente con la naturaleza, limpiando los océanos y reforestando la Tierra a una escala sin precedentes. La humanidad ha aprendido a vivir en equilibrio con el planeta, utilizando energía limpia y sostenible.

Sin embargo, la vida en el Enlace no está exenta de desafíos. El mayor de ellos es la cuestión de la identidad y el propósito. Con la capacidad de acceder a cualquier experiencia o conocimiento, las personas a veces luchan por encontrar un sentido único y personal en un mundo donde todo es posible y accesible. La búsqueda de la auténtica individualidad y la exploración de la propia esencia se ha convertido en la nueva frontera para la humanidad.

Además, una minoría de humanos, conocidos como los "Desconectados", ha optado por vivir fuera del Enlace, valorando la autonomía y la privacidad sobre la conectividad. Estos individuos forman pequeñas comunidades autosuficientes, utilizando tecnología de manera selectiva y manteniendo prácticas tradicionales.

A medida que la humanidad avanza, la fusión de mentes humanas y máquinas plantea preguntas filosóficas y éticas profundas sobre la naturaleza de la conciencia, la identidad y el libre albedrío. El futuro sigue siendo una aventura sin fin, llena de descubrimientos y posibilidades inimaginables.

Recuerda, esta historia es una alucinación creativa y no predice el futuro real de la humanidad. ¡Espero que hayas disfrutado de este ejercicio de imaginación!

---

No tengo un parámetro específico que ajuste automáticamente el nivel de optimismo o pesimismo en las respuestas creativas o alucinaciones que genero. Sin embargo, trato de adaptarme a las preferencias y expectativas del usuario. Si prefieres una perspectiva más optimista o más apocalíptica, puedo ajustarlo según lo que me indiques.

Por ejemplo, si quieres una visión más apocalíptica del futuro de la humanidad, aquí tienes una:

Visión Apocalíptica del Futuro de la Humanidad

En el año 2145, la humanidad se encuentra al borde del colapso debido a una serie de catástrofes globales. El cambio climático, impulsado por siglos de emisiones descontroladas de gases de efecto invernadero, ha alterado drásticamente el clima del planeta. Las temperaturas extremas, tormentas intensificadas y el aumento del nivel del mar han desplazado a millones de personas, creando una crisis de refugiados sin precedentes.

Las ciudades costeras han sido inundadas, y los desiertos se han expandido, convirtiendo vastas regiones de tierra fértil en paisajes áridos. Los recursos naturales, ya sobreexplotados, se han vuelto aún más escasos, provocando conflictos violentos por el acceso al agua y alimentos. Los gobiernos han colapsado en muchas partes del mundo, y las sociedades han regresado a un estado de supervivencia primitiva.

La tecnología, que una vez prometió un futuro brillante, ha jugado un papel dual. Mientras que algunos avances han ayudado a mitigar los efectos del desastre, otros han exacerbado la situación. Los intentos fallidos de geoingeniería para revertir el cambio climático han tenido consecuencias imprevistas, empeorando aún más las condiciones globales.

Las pandemias recurrentes, facilitadas por la movilidad global y la resistencia a los medicamentos, han diezmado la población. Los sistemas de salud están colapsados, y las enfermedades que una vez se consideraron erradicadas han vuelto con fuerza.

La inteligencia artificial y la automatización, que prometían liberar a la humanidad del trabajo manual, han contribuido al desempleo masivo y la desesperación. Las máquinas controlan la mayor parte de la producción y el mantenimiento de la infraestructura, dejando a los humanos sin un propósito claro. La desconexión y el descontento social han llevado a la fragmentación de las sociedades en facciones beligerantes.

Las comunicaciones globales han sido interrumpidas por ciberataques constantes, y la confianza en la información se ha erosionado por completo. La propaganda y la desinformación han alimentado el caos, haciendo casi imposible discernir la verdad en medio del tumulto.

En medio de este apocalipsis, pequeños grupos de supervivientes intentan reconstruir la sociedad desde las ruinas. Viven en comunidades autosuficientes, utilizando tecnologías sostenibles y antiguas tradiciones para subsistir. La esperanza persiste en estos enclaves resilientes, donde los humanos trabajan juntos para encontrar un nuevo equilibrio con la naturaleza y entre ellos.

Recuerda, esta es solo una alucinación creativa y no refleja un pronóstico real. Puedo ajustar el tono de las respuestas según tus preferencias. ¡Dime cómo te gustaría que sea la próxima vez!

Imagen

Ray Kurzweil sobre cómo la IA transformará el mundo físico




Ray Kurzweil sobre cómo la IA transformará el mundo físico

Los cambios serán particularmente profundos en la energía, la manufactura y la medicina, dice el futurista

Ray Kurzweil on how AI will transform the physical world

17 de junio de 2024


Para cuando los niños que nacen hoy estén en el jardín de infancia, la inteligencia artificial (IA) probablemente habrá superado a los humanos en todas las tareas cognitivas, desde la ciencia hasta la creatividad. Cuando predije por primera vez en 1999 que tendríamos tal inteligencia general artificial (AGI) para 2029, la mayoría de los expertos pensaron que había empezado a escribir ficción. Pero desde los espectaculares avances de los últimos años, muchos expertos piensan que tendremos AGI aún antes, por lo que técnicamente he pasado de ser un optimista a un pesimista, sin cambiar en absoluto mi predicción.


Después de trabajar en el campo durante 61 años, más que nadie vivo, me gratifica ver a la IA en el corazón de la conversación global. Sin embargo, la mayoría de los comentarios no reconocen cómo los grandes modelos de lenguaje como ChatGPT y Gemini encajan en una historia aún mayor. La IA está a punto de dar el salto de revolucionar solo el mundo digital a transformar también el mundo físico. Esto traerá innumerables beneficios, pero tres áreas tienen implicaciones especialmente profundas: la energía, la manufactura y la medicina.


Las fuentes de energía son uno de los recursos más fundamentales de la civilización. Durante dos siglos, el mundo ha necesitado combustibles fósiles sucios y no renovables. Sin embargo, cosechar solo el 0.01% de la luz solar que recibe la Tierra cubriría todo el consumo de energía humano. Desde 1975, las celdas solares se han vuelto un 99.7% más baratas por vatio de capacidad, permitiendo que la capacidad mundial aumente alrededor de 2 millones de veces. Entonces, ¿por qué la energía solar aún no domina?


El problema es doble. Primero, los materiales fotovoltaicos siguen siendo demasiado caros e ineficientes para reemplazar completamente al carbón y al gas. Segundo, debido a que la generación solar varía tanto en escalas diurnas (día/noche) como anuales (verano/invierno), se necesita almacenar enormes cantidades de energía hasta que se necesite, y la tecnología de baterías de hoy en día aún no es lo suficientemente rentable. Las leyes de la física sugieren que son posibles mejoras masivas, pero el rango de posibilidades químicas a explorar es tan enorme que los científicos han hecho un progreso dolorosamente lento.


En cambio, la IA puede examinar rápidamente miles de millones de combinaciones químicas en simulación, y ya está impulsando innovaciones tanto en fotovoltaicos como en baterías. Esto está a punto de acelerarse dramáticamente. En toda la historia hasta noviembre de 2023, los humanos habían descubierto unos 20,000 compuestos inorgánicos estables para usar en todas las tecnologías. Luego, la IA gnome de Google descubrió muchos más, aumentando esa cifra de la noche a la mañana a 421,000. Sin embargo, esto apenas roza la superficie de las aplicaciones de la ciencia de materiales. Una vez que una AGI mucho más inteligente encuentre materiales totalmente óptimos, los megaproyectos fotovoltaicos se volverán viables y la energía solar podrá ser tan abundante que será casi gratuita.


La abundancia de energía permite otra revolución: en la manufactura. Los costos de casi todos los bienes, desde alimentos y ropa hasta electrónicos y automóviles, provienen en gran medida de unos pocos factores comunes como la energía, el trabajo (incluido el trabajo cognitivo como la I+D y el diseño) y las materias primas. La IA está en camino de reducir enormemente todos estos costos.


Después de la energía solar barata y abundante, el siguiente componente es la mano de obra humana, que a menudo es agotadora y peligrosa. La IA está haciendo grandes avances en la robótica que pueden reducir enormemente los costos laborales. La robótica también reducirá los costos de extracción de materias primas, y la IA está encontrando formas de reemplazar elementos raros y costosos por otros comunes como el zirconio, el silicio y el grafeno a base de carbono. Todo esto significa que la mayoría de los tipos de bienes se volverán increíblemente baratos y abundantes.


Estas capacidades avanzadas de manufactura permitirán que la relación precio-rendimiento de la computación mantenga la trayectoria exponencial del siglo pasado, una mejora de 75 cuatrillones de veces desde 1939. Esto se debe a un ciclo de retroalimentación: los chips de IA de última generación de hoy se utilizan para optimizar los diseños de los chips de próxima generación. En términos de cálculos por segundo por dólar constante, el mejor hardware disponible en noviembre pasado podía realizar 48 mil millones. Los nuevos GPUs B200 de Nvidia superan los 500 mil millones.


A medida que construimos la enorme potencia de cómputo necesaria para simular la biología, desbloquearemos la tercera revolución física de la IA: la medicina. A pesar de 200 años de dramáticos avances, nuestra comprensión del cuerpo humano todavía se basa en aproximaciones desordenadas que generalmente son mayormente correctas para la mayoría de los pacientes, pero probablemente no sean totalmente correctas para usted. Decenas de miles de estadounidenses mueren cada año por reacciones a medicamentos que los estudios dijeron que deberían ayudarles.


Sin embargo, la IA está empezando a convertir la medicina en una ciencia exacta. En lugar de un laborioso ensayo y error en un laboratorio experimental, la biosimulación molecular (modelado informático preciso que ayuda al estudio del cuerpo humano y cómo funcionan los medicamentos) puede evaluar rápidamente miles de millones de opciones para encontrar los medicamentos más prometedores. El verano pasado, el primer medicamento diseñado de principio a fin por IA entró en ensayos de fase 2 para tratar la fibrosis pulmonar idiopática, una enfermedad pulmonar. Docenas de otros medicamentos diseñados por IA están entrando ahora en ensayos.


Tanto el descubrimiento de medicamentos como las etapas de prueba serán impulsados enormemente a medida que las simulaciones incorporen los datos inmensamente más ricos que hace posible la IA. En toda la historia hasta 2022, la ciencia había determinado las formas de alrededor de 190,000 proteínas. Ese año, AlphaFold 2 de DeepMind descubrió más de 200 millones, que se han puesto a disposición de los investigadores de forma gratuita para ayudar a desarrollar nuevos tratamientos.


Se necesita mucha más investigación de laboratorio para poblar simulaciones más grandes con precisión, pero la hoja de ruta está clara. A continuación, la IA simulará complejos proteicos, luego orgánulos, células, tejidos, órganos y, eventualmente, todo el cuerpo.


Esto reemplazará en última instancia los ensayos clínicos actuales, que son costosos, riesgosos, lentos y estadísticamente insuficientes. Incluso en un ensayo de fase 3, probablemente no haya un solo sujeto que coincida con usted en todos los factores relevantes de genética, estilo de vida, comorbilidades, interacciones de medicamentos y variaciones de la enfermedad.


Los ensayos digitales nos permitirán adaptar los medicamentos a cada paciente individual. El potencial es asombroso: curar no solo enfermedades como el cáncer y el Alzheimer, sino también los efectos nocivos del envejecimiento.


Hoy en día, el progreso científico le da al estadounidense o británico promedio de seis a siete semanas adicionales de esperanza de vida cada año. Cuando la AGI nos dé pleno dominio sobre la biología celular, estos avances se acelerarán bruscamente. Una vez que los aumentos anuales en la esperanza de vida alcancen los 12 meses, alcanzaremos la "velocidad de escape de la longevidad". Para las personas diligentes con hábitos saludables y el uso de nuevas terapias, creo que esto ocurrirá entre 2029 y 2035, momento en el cual el envejecimiento no aumentará su probabilidad anual de morir. Y gracias a la mejora exponencial en la relación precio-rendimiento de la computación, las terapias impulsadas por IA que inicialmente son caras se volverán rápidamente disponibles para todos.


Esta es la promesa más transformadora de la IA: vidas más largas y saludables, sin los límites de la escasez y la fragilidad que han limitado a la humanidad desde sus comienzos.


Ray Kurzweil es un científico informático, inventor y autor de libros como “The Age of Intelligent Machines” (1990), “The Age of Spiritual Machines” (1999) y “The Singularity is Near” (2005). Su nuevo libro, “The Singularity is Nearer: When We Merge with AI”, será publicado el 25 de junio.

sábado, 22 de junio de 2024

Wetware Computing: Computación con Tejidos Biológicos


Resumen del artículo: Wetware Computing

Fred D. Jordan*, Martin Kutter, Jean-Marc Comby, Flora Brozzi and Ewelina Kurtys FinalSpark, Rue du Clos 12, Vevey, Switzerland
PUBLISHED 02 May 2024


El artículo "Open and remotely accessible Neuroplatform for research in wetware computing" describe una plataforma neurotecnológica diseñada para facilitar la investigación en computación con tejidos biológicos vivos, específicamente redes neuronales biológicas (BNNs). Esta plataforma permite a los investigadores realizar experimentos a gran escala de manera remota utilizando organoides cerebrales.

Puntos clave del artículo:

1. Contexto y Motivación: La computación con tejidos biológicos, conocida como "wetware computing", busca replicar el procesamiento neuronal utilizando células vivas, a diferencia de las redes neuronales artificiales (ANNs) que utilizan componentes digitales. Esta tecnología podría ofrecer soluciones más eficientes energéticamente en comparación con las ANNs.

2. Desarrollo de la Plataforma: La plataforma, desarrollada por FinalSpark, permite realizar experimentos electrofisiológicos en organoides cerebrales durante más de 100 días. Integra un sistema de microfluidos automatizado que mantiene las condiciones estables y reduce la necesidad de intervención manual.

3. Capacidades Técnicas: Incluye una interfaz de usuario gráfica y una API para control remoto, permitiendo a los usuarios ejecutar experimentos complejos utilizando bibliotecas de aprendizaje profundo y de refuerzo. La plataforma también cuenta con sistemas para registrar y estimular la actividad neuronal, utilizando matrices de microelectrodos (MEA) y un sistema de microfluidos cerrado.

4. Aplicaciones y Datos: En los últimos tres años, la plataforma ha sido utilizada con más de 1,000 organoides cerebrales, acumulando más de 18 terabytes de datos. Estos datos son accesibles a través de Python y pueden ser analizados utilizando herramientas de procesamiento de datos avanzadas.

5. Accesibilidad y Uso Remoto: La infraestructura soporta el uso totalmente remoto, y en 2024, la plataforma está disponible gratuitamente para fines de investigación. Numerosos grupos de investigación ya están utilizando esta tecnología para sus experimentos.

6. Configuración Biológica
La Neuroplatform utiliza organoides cerebrales, que se cultivan in vitro y se conectan a Matrices de Microelectrodos (MEAs) para facilitar experimentos electrofisiológicos. La plataforma apoya la generación, el mantenimiento y la manipulación de estos organoides para estudiar actividades neuronales.


7. Arquitectura del Hardware
1. Matriz de Microelectrodos (MEA): Utilizada para registrar y estimular la actividad neuronal en los organoides.
2. Sistema de Estimulación y Registro Electrofisiológico: Monitorea los potenciales de acción y proporciona estímulos eléctricos.
3. Microfluídica: Maneja la entrega de nutrientes y la eliminación de desechos, asegurando condiciones ambientales estables para el crecimiento de los organoides.
4. Cámaras y Sistemas de Luz UV: Facilitan la monitorización detallada y la manipulación, incluyendo el desencadenamiento de moléculas mediante luz UV para experimentos dirigidos.
5. Mediciones Ambientales: Aseguran condiciones óptimas para la longevidad y funcionalidad de los organoides.

8. Componentes del Software
1. Arquitectura General: Soporta la adquisición de datos, el procesamiento y la automatización de experimentos.
2. Base de Datos: Almacena grandes volúmenes de datos electrofisiológicos, accesibles y analizables de forma remota.
3. Registro de Actividad Eléctrica: Captura y registra la actividad neuronal para análisis posteriores.
4. Sintaxis para Estimulaciones: Define protocolos para estímulos eléctricos y otras manipulaciones.

9. Ejemplos Experimentales
1. Modificación de la Actividad Espontánea: Investiga cómo diferentes estímulos afectan la actividad neuronal natural.
2. Optimización de Parámetros de Estimulación: Identifica los mejores parámetros para obtener respuestas deseadas de las redes neuronales.
3. Desencadenamiento de Moléculas con Luz UV: Utiliza luz para liberar moléculas activas, permitiendo un control preciso sobre el entorno experimental.

10. Usuarios Externos y Aplicaciones
La plataforma está diseñada para ser accesible de manera remota, lo que permite la colaboración en investigación a nivel global. Soporta experimentos complejos y continuos, y puede integrarse con diversas herramientas de IA y aprendizaje automático para análisis avanzados.

11. Extensiones Futuras
Las mejoras planeadas incluyen un control más sofisticado sobre las condiciones experimentales, como la inyección remota de moléculas específicas para explorar más a fondo la neuroplasticidad y otros fenómenos neuronales.


Un hybrot es un organismo cibernético en forma de un robot controlado por una computadora consistente en elementos biológicos y electrónicos.



viernes, 21 de junio de 2024

"Attention Is All You Need" el Articulo de Google Brain que lo cambio todo en 2017


La Atención es Todo lo que Necesitas


¿Alguna vez te has preguntado en qué momento la inteligencia artificial pasó de ser un personaje secundario a ser el personaje principal de la trama?

No se trata de un punto en concreto, sino de unos grandes avances tecnológicos y teóricos, que poco a poco ha permitido obtener un gran potencial. Aun así, ha habido momentos donde ese avance ha sido especialmente significativo.

En 2017, antes del gran boom de todo el movimiento IA, Google lanzaba un paper que lo cambiaría todo, como ellos mismo dicen, cambiando la forma de 'atender'.

Hablamos del paper 'Attention Is All You Need', probablemente el artículo más importante de la historia de la inteligencia artificial y el deep learning.

Este trabajo introdujo el concepto de la arquitectura Transformer, que ha revolucionado la forma en que se abordan los problemas de NLP y ha sentado las bases para desarrollos posteriores en inteligencia artificial.

¿Qué son los Transformers?

Los Transformers son un tipo de arquitectura de modelo de aprendizaje automático, introducidos por primera vez en mencionado paper "Attention Is All You Need" en 2017. A diferencia de las arquitecturas anteriores, como las redes neuronales recurrentes (RNN) o las redes neuronales convolucionales (CNN), los Transformers se basan enteramente en un mecanismo llamado "atención".

Imagina que estás leyendo un libro y, en lugar de seguir cada palabra secuencialmente, tu cerebro se enfoca en las palabras clave para entender el sentido general de una oración o párrafo. De manera similar, la atención en un Transformer permite al modelo centrarse en partes relevantes de la entrada (como palabras en una oración) para realizar su tarea.

¿Cómo Funcionan los Transformers?

Los Transformers funcionan mediante la asignación de diferentes niveles de importancia a cada parte de la entrada. Por ejemplo, en una oración, el modelo puede asignar más importancia a los sustantivos o verbos para entender mejor su significado.



El modelo utiliza lo que se conoce como "atención multi-cabeza". Esto significa que puede atender a diferentes partes de la entrada de manera simultánea, lo que le permite captar múltiples aspectos del significado de una oración o texto.

Con este modelo podemos detectar la 'importancia' de cada relación, pudiendo saber así a que hace referencia cada palabra. De esta forma podemos crear la 'matriz de atención' (o Attention Matrix).

https://www.researchgate.net/figure/Attention-matrices-produced-by-the-attention-mechanism-in-the-problem-of-bilingual_fig3_343781385

Con estas matrices podemos ver de forma de gráfico como se relaciona cada palabra.

Esta es la base de los transformers.

Impacto en el Procesamiento del Lenguaje Natural

La introducción del Transformer ha llevado a avances significativos en una variedad de tareas de NLP. Modelos basados en Transformer, como BERT (Bidirectional Encoder Representations from Transformers), GPT (Generative Pretrained Transformer), y otros, han establecido nuevos estándares de rendimiento en tareas como la comprensión del lenguaje, la traducción automática, y la generación de texto.

Eficiencia y Escalabilidad

Otra ventaja importante del Transformer es su eficiencia computacional. La arquitectura se presta bien para el paralelismo, lo que permite entrenar modelos más grandes y más rápidos. Esto ha abierto la puerta a la creación de modelos de lenguaje cada vez más sofisticados y poderosos.

Influencia en la Investigación y Desarrollo

El impacto de los Transformers va más allá del procesamiento del lenguaje. Han inspirado investigaciones y desarrollos en otros dominios, como la visión por computadora y el análisis de series temporales. Su influencia se extiende a la forma en que se abordan los problemas de aprendizaje automático en general.

Aplicaciones

Los Transformers son increíblemente versátiles y se han utilizado para una variedad de tareas en NLP, incluyendo:

  • Traducción automática: Convertir texto de un idioma a otro manteniendo el significado original.
  • Generación de texto: Crear texto coherente y relevante basado en una entrada dada.
  • Comprensión del lenguaje: Entender y responder preguntas sobre un texto dado.
  • Resumen automático: Crear resúmenes concisos de textos largos.

Ejemplos de Modelos Basados en Transformers

  • BERT (Bidirectional Encoder Representations from Transformers): Utilizado para mejorar la comprensión del lenguaje y el análisis de texto.
  • GPT (Generative Pretrained Transformer): Conocido por su capacidad para generar texto coherente y creativo.

Conclusión

El trabajo presentado en "Attention Is All You Need" marcó un antes y un después en la inteligencia artificial. Su impacto va más allá del procesamiento del lenguaje natural, influenciando la forma en que se abordan los problemas de aprendizaje automático en general. La arquitectura Transformer ha demostrado ser una herramienta poderosa y versátil, estableciendo un nuevo paradigma en la investigación y aplicación de la inteligencia artificial.


  1. "Attention Is All You Need" de Vaswani et al. (2017): Este es el paper original que introdujo la arquitectura Transformer. Es una lectura esencial para comprender los fundamentos teóricos y técnicos de los Transformers. Disponible en arXiv.
  2. "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" de Devlin et al. (2018): Este paper describe BERT, un modelo basado en Transformers que ha sido fundamental en el avance del NLP. Disponible en arXiv.
  3. "Language Models are Few-Shot Learners" de Brown et al. (2020): Este artículo, conocido como el paper de GPT-3, ofrece una visión detallada de la tercera versión del modelo Generative Pretrained Transformer. Disponible en arXiv.
  4. "The Illustrated Transformer" por Jay Alammar: Un recurso visual excelente para entender cómo funcionan los Transformers. Jay Alammar presenta explicaciones claras y diagramas ilustrativos. Puede encontrarse en el blog de Jay Alammar.
  5. "Deep Learning" por Ian Goodfellow, Yoshua Bengio y Aaron Courville: Este libro proporciona una base sólida en aprendizaje profundo y contiene capítulos relevantes sobre redes neuronales y arquitecturas de aprendizaje automático. Disponible aquí.
  6. Sitio Web de OpenAI: Para obtener información actualizada y casos de estudio sobre GPT y otros desarrollos de IA, el sitio web de OpenAI es una fuente confiable y actualizada. Visítalo en OpenAI.







Artículo principal

Un Viaje desde Ramón y Cajal hasta la Era Digital

  De izquierda a derecha: un diagrama que sugiere cómo podrían los ojos transmitir un cuadro unificado de la realidad al cerebro, una neuron...