¿Qué pasará cuando las computadoras se vuelvan más inteligentes que nosotros?
Trabajo con muchos matemáticos, filósofos y científicos informáticos. A veces nos sentamos y pensamos en el futuro de la Inteligencia Artificial. Algunos piensan que algunas de estas cosas son ciencia ficción, cosas con las que no tendremos que lidiar, cosas locas. No como cosas concretas, problemas reales.
Solo piense, si la Tierra hubiera sido creada hace un año, la especie humana existiría solo por 10 minutos. La era industrial comenzaría hace dos segundos. Otra forma de verlo es pensar en el PIB mundial en los últimos 10.000 años: me permití mostrártelo en un gráfico. La tendencia hace una curva extraña, para una condición normal.
Preguntémonos, ¿cuál es la causa de esta anomalía?
Algunos dirían que es tecnología. Y es cierto, la tecnología se ha acumulado a lo largo de la historia de la humanidad y ahora avanza a un ritmo extremadamente rápido. Esta es la causa más inmediata, la razón por la que somos tan productivos ahora. Pero si en solo 250,000 generaciones hemos pasado de ser animales que rompieron ramas a hombres que planean viajes interestelares, ¿qué podría pasar ahora con la IA?
Algunos de mis colegas creen que estamos al borde de algo que podría causar un cambio profundo en ese sustrato, y que algo es la superinteligencia artificial.
La Inteligencia Artificial, una vez, consistía en dar órdenes a una caja. Hubo programadores humanos que elaboraron "manualmente", con dificultad, piezas de conocimiento. Se construyeron estos sistemas expertos que fueron útiles para algún propósito, pero fueron muy "frágiles", difíciles de expandir. Básicamente, solo tienes lo que incluiste.
Pero desde entonces ha habido una revolución en el campo de la Inteligencia Artificial. Hoy, nos enfocamos en el aprendizaje automático. En lugar de incorporar representaciones y características del conocimiento manualmente, creamos algoritmos que aprenden, a menudo a partir de datos perceptivos brutos.
En la práctica, lo mismo que hace un niño.
El resultado es una inteligencia artificial que no se limita a un solo sector: el mismo sistema puede aprender a traducir cada par de idiomas o aprender a jugar cada juego en la consola de Atari. Por supuesto, AI ni siquiera está cerca de la capacidad poderosa e interdisciplinaria de aprender y diseñar un ser humano. La corteza todavía tiene ventajas algorítmicas que no sabemos cómo reproducir en las máquinas.
Entonces la pregunta es, ¿cuánto falta, antes de que las máquinas puedan recuperar estas ventajas?
Hace un par de años, encuestamos a algunos expertos del mundo IA para ver lo que pensaban, y una de las preguntas fue: "¿En qué año creen que hay un 50% de posibilidades de obtener una inteligencia artificial a nivel humano?
Definimos "nivel humano" la capacidad de realizar casi todos los trabajos al menos tan bien como un humano, y no solo en un dominio limitado. Y la respuesta mediana fue 2040 o 2050, según el grupo de expertos que solicitemos. Podría pasar mucho, mucho más tarde o antes, la realidad es que nadie sabe realmente.
Lo que sabemos es que el límite para el procesamiento de la información en un sustrato artificial va más allá de los límites de los tejidos biológicos. Las razones se encuentran en la física. Una neurona orgánica dispara, tal vez, a 200 hercios, 200 veces por segundo. Pero un transistor de la actualidad opera en GigaHertz. Las neuronas se propagan lentamente a lo largo de los axones, a un máximo de 100 mt / s. Pero una computadora puede encaminar las señales a la velocidad de la luz. También hay límites dimensionales: un cerebro humano debe estar dentro de una calavera, mientras que una computadora puede ser tan grande como un almacén, o más.
El potencial de la superinteligencia, por lo tanto, reside en la materia, del mismo modo que la fuerza del átomo se ha ocultado en la historia humana, esperando pacientemente a 1945. En este siglo, los científicos podrían aprender a liberar la inteligencia artificial. Y creo que en ese momento podríamos observar una explosión de inteligencia.
Hemos pasado años trabajando en ello desde la inteligencia cero hasta la de un ratón. Y luego, muchos, muchos años, y muchas inversiones, para llegar a Inteligente como un chimpancé. Y luego, después de muchos más, llegar a una IA en el tonto nivel del pueblo. Aquí viene la belleza, sin embargo, porque unos momentos más tarde, habremos pasado a Albert Einstein. Esto tiene profundas implicaciones, especialmente cuando se trata de poder. Los chimpancés, por ejemplo, son aproximadamente el doble del tamaño de un hombre humano en buena forma física. Y sin embargo, el destino de los chimpancés y sus pares depende mucho más de nuestras acciones que de las de ellos.
Cuando llega la superinteligencia, nuestro destino también puede depender de ello. Piénselo: la IA es el último invento que la humanidad jamás tendrá que crear. Las máquinas serán mejores inventores que nosotros, y actuarán en tiempos "digitales".
Esto básicamente significa CERRAR el futuro. Piensa en todas las tecnologías locas que tal vez los humanos podrían desarrollar: curas para el envejecimiento, colonización espacial, nanobots autorreplicantes, cargando sus mentes en una computadora. Una superinteligencia podría desarrollar todo esto, y muy rápidamente. Una superinteligencia con tal madurez tecnológica sería extremadamente poderosa, y al menos en algunos escenarios, podría obtener lo que quiere.
En ese momento tendríamos un futuro modelado en las preferencias de AI. Una buena pregunta en ese momento es: ¿cuáles son estas preferencias? Aquí el asunto se enreda. Para encontrar una salida, debemos pensar en la inteligencia como un proceso de optimización, un proceso que dirige el futuro hacia un destino particular. Una superinteligencia es un proceso de optimización muy poderoso. Él es extremadamente capaz de usar los medios disponibles para obtener una condición en la cual "sus" propósitos se logran. Entonces, no necesariamente hay una conexión entre ser muy inteligente en este sentido y tener una meta que los humanos consideremos digna o significativa. Supongamos que le damos a AI el objetivo de hacer sonreír a los humanos. Una IA débil solo realizaría acciones útiles o divertidas que hagan sonreír al usuario.
Otro ejemplo: supongamos que le da a la IA un problema matemático difícil de resolver. Cuando la IA se convierte en super-inteligente, entiende que la forma más eficaz para obtener la solución al problema es transformar el planeta en un gigante de la informática, con el fin de aumentar su capacidad de pensamiento. Y tenga en cuenta: esto le da a la IA una razón instrumental para hacernos sufrir cosas que no aprobamos. Los seres humanos se convertirían en una amenaza, porque podríamos evitar el descubrimiento de la solución. Obviamente, no se dice que las cosas saldrán mal de esta manera precisa; son ejemplos de dibujos animados.
Pero es importante entender el punto: si crea un proceso de optimización muy poderoso que maximiza el objetivo x, asegúrese de que su definición de x incluya todo lo que le interesa. Es una lección dictada por muchos mitos, también. El rey Midas quería convertir todo lo que tocó en oro. Toca a su hija y la convierte en oro. Toca su comida, se convierte en oro. Es un ejemplo que podríamos considerar embarazada: no solo como una metáfora de la codicia, sino también porque ilustra lo que sucede si se crea un poderoso proceso de optimización y se le confía objetivos indeseables o mal especificados.
Bueno, dime, si una computadora comienza a poner electrodos en las caras de las personas, simplemente apágalo. Pero no se dice que sea tan simple, si nos volvemos dependientes del sistema. Por ejemplo, ¿dónde está el interruptor para apagar Internet? ¿Por qué los chimpancés no rompieron el cambio de la humanidad o los neandertales? Ciertamente tenían razones para hacerlo.
No estoy absolutamente en contra de la IA, pero estoy en contra de esta irresponsabilidad general. Estamos en los albores de los descubrimientos que sacudirán el planeta y no estamos pensando en las reglas generales, lo que queremos hacer, qué consecuencias nos enfrentamos. ¿Cuáles queremos y cuáles no?
Lo mismo sucedió con la división del átomo. Piense si hubiéramos establecido que no podrían fabricar armas o producir energía, porque las consecuencias de estas aplicaciones serían demasiado serias para la humanidad.
Creo que esto es algo que se debe hacer, y puedo imaginar que si las cosas van bien, en un millón de años la gente pensará en este siglo y podría decir que lo único importante que hicimos fue resolver este problema.
Solo piense, si la Tierra hubiera sido creada hace un año, la especie humana existiría solo por 10 minutos. La era industrial comenzaría hace dos segundos. Otra forma de verlo es pensar en el PIB mundial en los últimos 10.000 años: me permití mostrártelo en un gráfico. La tendencia hace una curva extraña, para una condición normal.
Preguntémonos, ¿cuál es la causa de esta anomalía?
Algunos dirían que es tecnología. Y es cierto, la tecnología se ha acumulado a lo largo de la historia de la humanidad y ahora avanza a un ritmo extremadamente rápido. Esta es la causa más inmediata, la razón por la que somos tan productivos ahora. Pero si en solo 250,000 generaciones hemos pasado de ser animales que rompieron ramas a hombres que planean viajes interestelares, ¿qué podría pasar ahora con la IA?
Algunos de mis colegas creen que estamos al borde de algo que podría causar un cambio profundo en ese sustrato, y que algo es la superinteligencia artificial.
La Inteligencia Artificial, una vez, consistía en dar órdenes a una caja. Hubo programadores humanos que elaboraron "manualmente", con dificultad, piezas de conocimiento. Se construyeron estos sistemas expertos que fueron útiles para algún propósito, pero fueron muy "frágiles", difíciles de expandir. Básicamente, solo tienes lo que incluiste.
Pero desde entonces ha habido una revolución en el campo de la Inteligencia Artificial. Hoy, nos enfocamos en el aprendizaje automático. En lugar de incorporar representaciones y características del conocimiento manualmente, creamos algoritmos que aprenden, a menudo a partir de datos perceptivos brutos.
En la práctica, lo mismo que hace un niño.
El resultado es una inteligencia artificial que no se limita a un solo sector: el mismo sistema puede aprender a traducir cada par de idiomas o aprender a jugar cada juego en la consola de Atari. Por supuesto, AI ni siquiera está cerca de la capacidad poderosa e interdisciplinaria de aprender y diseñar un ser humano. La corteza todavía tiene ventajas algorítmicas que no sabemos cómo reproducir en las máquinas.
Entonces la pregunta es, ¿cuánto falta, antes de que las máquinas puedan recuperar estas ventajas?
Hace un par de años, encuestamos a algunos expertos del mundo IA para ver lo que pensaban, y una de las preguntas fue: "¿En qué año creen que hay un 50% de posibilidades de obtener una inteligencia artificial a nivel humano?
Definimos "nivel humano" la capacidad de realizar casi todos los trabajos al menos tan bien como un humano, y no solo en un dominio limitado. Y la respuesta mediana fue 2040 o 2050, según el grupo de expertos que solicitemos. Podría pasar mucho, mucho más tarde o antes, la realidad es que nadie sabe realmente.
Lo que sabemos es que el límite para el procesamiento de la información en un sustrato artificial va más allá de los límites de los tejidos biológicos. Las razones se encuentran en la física. Una neurona orgánica dispara, tal vez, a 200 hercios, 200 veces por segundo. Pero un transistor de la actualidad opera en GigaHertz. Las neuronas se propagan lentamente a lo largo de los axones, a un máximo de 100 mt / s. Pero una computadora puede encaminar las señales a la velocidad de la luz. También hay límites dimensionales: un cerebro humano debe estar dentro de una calavera, mientras que una computadora puede ser tan grande como un almacén, o más.
El potencial de la superinteligencia, por lo tanto, reside en la materia, del mismo modo que la fuerza del átomo se ha ocultado en la historia humana, esperando pacientemente a 1945. En este siglo, los científicos podrían aprender a liberar la inteligencia artificial. Y creo que en ese momento podríamos observar una explosión de inteligencia.
Hemos pasado años trabajando en ello desde la inteligencia cero hasta la de un ratón. Y luego, muchos, muchos años, y muchas inversiones, para llegar a Inteligente como un chimpancé. Y luego, después de muchos más, llegar a una IA en el tonto nivel del pueblo. Aquí viene la belleza, sin embargo, porque unos momentos más tarde, habremos pasado a Albert Einstein. Esto tiene profundas implicaciones, especialmente cuando se trata de poder. Los chimpancés, por ejemplo, son aproximadamente el doble del tamaño de un hombre humano en buena forma física. Y sin embargo, el destino de los chimpancés y sus pares depende mucho más de nuestras acciones que de las de ellos.
Cuando llega la superinteligencia, nuestro destino también puede depender de ello. Piénselo: la IA es el último invento que la humanidad jamás tendrá que crear. Las máquinas serán mejores inventores que nosotros, y actuarán en tiempos "digitales".
Esto básicamente significa CERRAR el futuro. Piensa en todas las tecnologías locas que tal vez los humanos podrían desarrollar: curas para el envejecimiento, colonización espacial, nanobots autorreplicantes, cargando sus mentes en una computadora. Una superinteligencia podría desarrollar todo esto, y muy rápidamente. Una superinteligencia con tal madurez tecnológica sería extremadamente poderosa, y al menos en algunos escenarios, podría obtener lo que quiere.
En ese momento tendríamos un futuro modelado en las preferencias de AI. Una buena pregunta en ese momento es: ¿cuáles son estas preferencias? Aquí el asunto se enreda. Para encontrar una salida, debemos pensar en la inteligencia como un proceso de optimización, un proceso que dirige el futuro hacia un destino particular. Una superinteligencia es un proceso de optimización muy poderoso. Él es extremadamente capaz de usar los medios disponibles para obtener una condición en la cual "sus" propósitos se logran. Entonces, no necesariamente hay una conexión entre ser muy inteligente en este sentido y tener una meta que los humanos consideremos digna o significativa. Supongamos que le damos a AI el objetivo de hacer sonreír a los humanos. Una IA débil solo realizaría acciones útiles o divertidas que hagan sonreír al usuario.
Otro ejemplo: supongamos que le da a la IA un problema matemático difícil de resolver. Cuando la IA se convierte en super-inteligente, entiende que la forma más eficaz para obtener la solución al problema es transformar el planeta en un gigante de la informática, con el fin de aumentar su capacidad de pensamiento. Y tenga en cuenta: esto le da a la IA una razón instrumental para hacernos sufrir cosas que no aprobamos. Los seres humanos se convertirían en una amenaza, porque podríamos evitar el descubrimiento de la solución. Obviamente, no se dice que las cosas saldrán mal de esta manera precisa; son ejemplos de dibujos animados.
Pero es importante entender el punto: si crea un proceso de optimización muy poderoso que maximiza el objetivo x, asegúrese de que su definición de x incluya todo lo que le interesa. Es una lección dictada por muchos mitos, también. El rey Midas quería convertir todo lo que tocó en oro. Toca a su hija y la convierte en oro. Toca su comida, se convierte en oro. Es un ejemplo que podríamos considerar embarazada: no solo como una metáfora de la codicia, sino también porque ilustra lo que sucede si se crea un poderoso proceso de optimización y se le confía objetivos indeseables o mal especificados.
Bueno, dime, si una computadora comienza a poner electrodos en las caras de las personas, simplemente apágalo. Pero no se dice que sea tan simple, si nos volvemos dependientes del sistema. Por ejemplo, ¿dónde está el interruptor para apagar Internet? ¿Por qué los chimpancés no rompieron el cambio de la humanidad o los neandertales? Ciertamente tenían razones para hacerlo.
No estoy absolutamente en contra de la IA, pero estoy en contra de esta irresponsabilidad general. Estamos en los albores de los descubrimientos que sacudirán el planeta y no estamos pensando en las reglas generales, lo que queremos hacer, qué consecuencias nos enfrentamos. ¿Cuáles queremos y cuáles no?
Lo mismo sucedió con la división del átomo. Piense si hubiéramos establecido que no podrían fabricar armas o producir energía, porque las consecuencias de estas aplicaciones serían demasiado serias para la humanidad.
Creo que esto es algo que se debe hacer, y puedo imaginar que si las cosas van bien, en un millón de años la gente pensará en este siglo y podría decir que lo único importante que hicimos fue resolver este problema.
Comentarios
Publicar un comentario