
por Mark Bishop
publicado n/a científico nuevo
No siempre tienes que estar de acuerdo con un genio amado, pero en tu alarmante predicción sobre la inteligencia artificial eo futuro da humanidad, creo que Stephen Hawking se equivocó. Para ser más precisos, según la física, en comparación con el gato de Schrödinger, tiene razón y está equivocado al mismo tiempo.
Cuando se le preguntó cuánto tiempo esperan los ingenieros para la creación de la inteligencia artificial, Hawking respondió: «Una vez que los seres humanos desarrollen la inteligencia artificial, evolucionará por sí sola y se volverá a desarrollar a un ritmo cada vez mayor, más acelerado». Por el contrario, dos seres humanos, también limitados por una lenta evolución biológica, no podrían competir y serían reemplazados.
En mi opinión, está equivocado, porque hay fuertes razones para demostrar que las computadoras nunca podrán reproducir todas las facultades cognitivas humanas. Pero también es seguro, porque estas máquinas realmente podrían representar una amenaza para el futuro de la humanidad, como armas autónomas, por ejemplo.
Estos pronósticos no son nuevos; meu exdirector de la Universidad de Reading, profesor de cibernética kevin warwickplanteó este tema en su libro Marcha de las Máquinaspublicado en 1997.
Observó que habían sido criados robados con el mismo poder mental que un insecto. En resumen, predijo que habría robots con el poder del cerebro de un gato, seguidos rápidamente por máquinas tan inteligentes como los seres humanos, que nos usurparían y subyugarían.
triple problema
Esto se basa en la ideología de que todos los aspectos de la mentalidad humana eventualmente se realizarán mediante un programa ejecutable en una computadora adecuada, llamado IA fuerte. Está claro que, si es posible, un efecto de aceleración eventualmente desencadenaría una aceleración del progreso tecnológico, causado por el uso de sistemas de inteligencia artificial para proyectar inteligencia artificial cada vez más sofisticada de acuerdo con la ley de Moore, que establece que el poder de cómputo en bruto es todo dos años.
Creo que tres problemas fundamentales explican por qué el módulo informático de la inteligencia artificial es completamente incapaz de reproducir la mentalidad humana y su electroquímica y, por tanto, tenderá a cometer un error.
Primero, las computadoras no tienen una verdadera comprensión. DONDE Argumento de Quarto Chines Este es un experimento mental famoso del filósofo estadounidense John Searle, que muestra cómo un programa de computadora puede parecer que comprende historias chinas (respondiendo preguntas apropiadamente), sin comprender realmente nada en la interacción.
En segundo lugar, las computadoras no son conscientes. Un argumento que puede ser feo, que me vuelve loco Baila con los duendes, dice que si un ladrón experimenta una sensación consciente de interacción con el mundo, una infinidad de conciencias pueden estar en todas partes: en el batido que tomo, no me siento como si estuviera sentado. Reconoceremos este estado más grande – conocido como panpsiquismo – También necesitamos redirigir a la conciencia de la máquina.
Finalmente, las computadoras no tienen intuición matemática. En mi libro El nuevo espíritu del emperadoro física-matemáticas roger penrose He argumentado que la forma en que los matemáticos proporcionan muchas «manifestaciones inexpugnables» para verificar sus afirmaciones matemáticas es fundamentalmente no algorítmica y no computacional.
Bien, sin computadora
En conjunto, estos tres argumentos socavan fatalmente la idea de que la mente humana puede realizarse plenamente mediante un simple cálculo. Si es correcto, implicará la idea de que algunos aspectos más amplios de la mentalidad humana tenderán a informar a los futuros sistemas de inteligencia artificial.
En lugar de detenerse en las visiones de Hollywood de los ejecutivos deshonestos, sería mejor centrarse en las preocupaciones demasiado reales sobre una creciente aplicación de la inteligencia artificial existente: sistemas de armas autónomos.
En mi papel como especialista en inteligencia artificial na Comité Internacional para el Control de Armas RobóticasEstoy particularmente preocupado por la posible implantación de sistemas de armas robóticas que puedan involucrarse militarmente sin intervención humana. Principalmente porque la inteligencia artificial actual no es similar a la inteligencia humana y los sistemas autónomos tienen el potencial de causar desastres catastróficos cuando se enfrentan entre sí.
En otras palabras, es posible estar de acuerdo con la idea de que la inteligencia artificial podría representar una amenaza existencial para la humanidad, pero hay que imaginar que será mucho más inteligente que nosotros.