General

¿Por qué les tenemos tanto miedo a los robots? 15 expertos opinan cuáles son los peligros reales

¿Por qué les tenemos tanto miedo a los robots? 15 expertos opinan cuáles son los peligros reales



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ya sea que esté entusiasmado con eso o no, los robots y la inteligencia artificial son una parte inevitable de un futuro al que nos acercamos rápidamente. Gracias a los libros y películas llenas de inteligencia artificial deshonesta y robots malévolos, es comprensible que algunas personas estén un poco asustadas por la perspectiva de un mundo invadido por tales tecnologías.

No están solos, ya que muchos expertos en campos tan diversos como la tecnología y la economía también están expresando sus temores sobre el surgimiento de los robots. Si bien estos temores son ciertamente válidos, es importante señalar que estas preocupaciones se expresan con la esperanza de que la tecnología pueda mejorarse, no prohibirse.

Estas son solo algunas de las preocupaciones urgentes con respecto a los robots y las IA que los expertos quieren que se aborden antes de que comience la nueva era de la tecnología.

1. "Creo que las armas autónomas dan mucho miedo" - Jeff Bezos

El jefe de Amazon, Jeff Bezos, ha dejado claro su punto de vista cuando se trata de lo peligroso de la automatización. Si bien no cree que la automatización represente una amenaza para los trabajos o vidas humanas, tiene menos confianza en las armas autónomas.

Durante el Foro Presidencial sobre Liderazgo de George W. Bush del mes pasado, Bezos sugirió que sería necesario que haya tratados internacionales que regulen el uso de armas autónomas. Él cree que estos tratados regularían el uso de tales armas y evitarían la piratería y el uso indebido de la tecnología.

2. "Los dispositivos inteligentes en este momento tienen la capacidad de comunicarse y, aunque creemos que podemos monitorearlos, no tenemos forma de saberlo". Profesor Kevin Warwick

El vicecanciller adjunto de investigación de la Universidad de Coventry, y el llamado "profesor cyborg", Kevin Warwick ha hablado de su preocupación con respecto a la comunicación entre A.I. Cuando, en 2017, dos bots creados por Facebook desarrollaron su propio lenguaje y se comunicaron de una manera indescifrable para sus creadores, las preocupaciones sobre A.I. la comunicación comenzó a aflorar.

Si bien Warwick notó la importancia de tal evento, se apresuró a advertir a otros sobre las implicaciones adicionales de la comunicación no supervisada que evoluciona de forma independiente más allá del alcance de los científicos e ingenieros.

Facebook evidentemente estuvo de acuerdo y cerró el experimento tan pronto como se dieron cuenta de que los bots estaban conversando de una manera que mantenía a los humanos fuera del circuito.

Para garantizar el uso seguro de la IA, el monitoreo humano de sus interacciones es esencial, y es algo que muchos científicos ahora desconfiarán de avanzar.

3. "[I.A.] puede tomar decisiones injustas y discriminatorias, replicar o desarrollar prejuicios y comportarse de formas inescrutables e inesperadas en entornos altamente sensibles que ponen en riesgo los intereses humanos y la seguridad". - Sandra Wachter, Brent Mittelstadt y Luciano Floridi

Un artículo de 2017 de los investigadores Sandra Wachter, Brent Mittelstadt y Luciano Floridi advirtió que una de las mayores preocupaciones con respecto a la A.I. no es en realidad la tecnología en sí, sino los sesgos que le transferimos. Sugirieron que para crear tecnología que pudiera servir y proteger adecuadamente a toda la humanidad, tendría que estar libre de los prejuicios que poseemos como humanos.

Expresaron sus preocupaciones con respecto a los robots de seguridad que pueden informar incidentes a las autoridades, y si estos robots serán programados con los mismos prejuicios raciales que vemos en algunos aspectos de la aplicación de la ley humana. Para crear tecnología segura, primero tenemos que examinar nuestros propios males sociales, no sea que los pasemos a nuestras máquinas.

4. "El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana". - Stephen Hawking

El difunto Stephen Hawking habló abierta y frecuentemente sobre sus temores en torno a los avances en robótica e inteligencia artificial. tecnologías a lo largo de su vida. A menudo expresó su creencia de que A.I. eventualmente llegaría a ser tan avanzado que reemplazaría toda la vida humana.

Creía que A.I. eventualmente llegaría a un punto de sofisticación en el que sería capaz de actualizarse y evolucionar sin interferencia humana. Si bien estamos muy lejos de los sistemas que pueden administrar este nivel de inteligencia, es una consideración digna de los ingenieros que están creando las tecnologías del mañana.

5. "La IA es un riesgo fundamental para la existencia de la civilización humana de una manera que no lo fueron los accidentes de tráfico, los accidentes de avión, las drogas defectuosas o la mala alimentación". Elon Musk

Si bien Elon Musk está indiscutiblemente a la vanguardia de muchas tecnologías innovadoras y de vanguardia, eso no significa que no tenga sus propios temores sobre los avances de A.I. y tecnología autónoma. De hecho, cree que A.I. podría representar una amenaza muy real para la supervivencia continua de la raza humana.

Tan recientemente como el mes pasado, advirtió que los avances astronómicos en A.I. podría ver seres humanos esclavizados por máquinas en el futuro. En el documental¿Confías en esta computadora?Musk incluso llegó a decir que creía que surgirán máquinas superinteligentes en los próximos cinco años. Con suerte, se abordarán las preocupaciones de Musk y otros, y no tendremos que preocuparnos por ninguna situación similar a Skynet en el corto plazo.

6. "Lo que más me preocupa no es la inteligencia artificial inteligente sino la estúpida". - Toby Walsh

El año pasado, el profesor de inteligencia artificial de la Universidad de Nueva Gales del Sur, Tony Walsh, firmó una petición a la ONU pidiendo la prohibición de los "robots asesinos". La petición también fue firmada por personas como Elon Musk, Mustafa Suleyman de DeepMind de Google y otros científicos y académicos de todo el mundo.

A pesar de su apoyo a la petición, Walsh ha aclarado que su verdadero temor no es la inteligencia artificial superinteligente. pero "estúpida IA" que se ejerce sin conciencia ni consideración de las consecuencias.

Él cree que si vamos a continuar en nuestra carrera hacia una mejor robótica e inteligencia artificial, es imperativo que consideremos cada eventualidad y planifiquemos en consecuencia para garantizar la seguridad de los humanos.

7. "Es importante que seamos transparentes acerca de los datos de entrenamiento que estamos usando y que estemos buscando sesgos ocultos en ellos, de lo contrario, estamos construyendo sistemas sesgados". - John Giannandrea

Otro experto que advierte sobre el efecto de los sesgos humanos en la tecnología del mañana es John Giannandrea de Google. Es solo uno de una facción en constante crecimiento de científicos, académicos e ingenieros que temen los sesgos que estamos programando en nuestra tecnología.

En particular, Giannandrea pide una transparencia total en las tecnologías inteligentes que se utilizarán en la toma de decisiones médicas. Advierte a las personas que no confíen en las tecnologías inteligentes de caja negra sin una revelación completa de cómo funcionan o de los sistemas de aprendizaje profundo que las respaldan.

8. "" El problema no es la conciencia, sino la competencia. Usted hace máquinas que son increíblemente competentes para lograr los objetivos y causarán accidentes al intentar lograr esos objetivos ". - Stuart Russell

El vicepresidente del Consejo del Foro Económico Mundial sobre robótica e inteligencia artificial, Stuart Russell, cree que uno de los mayores problemas que debemos resolver cuando se trata de A.I. y las tecnologías autónomas es qué tan orientadas a objetivos están y qué son capaces de hacer para lograr ese objetivo.

En 2016 planteó el problema, usando el ejemplo de un automóvil autónomo atascado en un semáforo en rojo. Si el automóvil puede piratear el sistema de tráfico y cambiar la luz verde, lo que le permite completar su objetivo, podría poner vidas en riesgo.

Para Russell, y muchos otros, no es suficiente simplemente asegurarse de que los robots protegerán vidas humanas directamente; debemos enseñarles a proteger vidas indirectamente también. En la actualidad, la naturaleza estricta de la programación basada en objetivos tiene una multitud de puntos ciegos, que podrían allanar el camino para los riesgos para las vidas humanas si no se controlan.

9. "Nuestra investigación muestra pruebas de que incluso los robots no militares podrían ser armados para causar daño". - Cesar Cerrudo y Lucas Apa

Investigadores de la firma de ciberseguridad IOActive advirtieron a los fabricantes de tecnologías de seguridad para el hogar el año pasado sobre las vulnerabilidades en sus sistemas. Los investigadores, Cesar Cerrudo y Lucas Apa, fueron tan lejos como para sugerir que los piratas informáticos podrían convertir robots supuestamente inofensivos en el hogar.

Piden un aumento de la seguridad en la robótica doméstica y la inteligencia artificial antes de que se conviertan en algo común, de lo contrario, los hogares de todo el mundo podrían volverse vulnerables a los ataques. Sin embargo, el problema no solo afecta a los hogares. También se ha descubierto que los robots industriales en las fábricas son vulnerables a la piratería, lo que significa que las líneas de producción y la calidad de sus productos podrían verse seriamente comprometidas.

10. "Los iniciados o los ciberdelincuentes podrían utilizar técnicas avanzadas de optimización y patrones predecibles en el comportamiento de las estrategias comerciales automatizadas para manipular los precios del mercado". - Mark Carney

Una industria que normalmente no está vinculada a los robots es el sector financiero, pero las principales figuras financieras están hablando ahora sobre sus temores sobre la automatización. El gobernador del Banco de Inglaterra y líder de la Junta de Estabilidad Financiera, Mark Carney, advirtió que la automatización en el sector financiero podría permitir a los piratas informáticos manipular la economía.

Se estima que para 2025, 230.000 trabajadores de empresas financieras mundiales perderán sus puestos de trabajo debido a la inteligencia artificial. Carney y el FSB, sin embargo, advierten que depender de las nuevas tecnologías hasta este punto podría hacer que el sistema financiero global sea vulnerable a los ataques cibernéticos.

11. "Es realmente malo si la gente en general tiene más miedo de lo que va a hacer la innovación que entusiasmo". - Bill Gates

El fundador de Microsoft, Bill Gates, parece estar asumiendo la posición de que no tenemos nada que temer excepto el miedo mismo. Aunque Gates ha estado de acuerdo con muchas de las preocupaciones de Elon Musk en torno a los robots y la inteligencia artificial, también ha expresado su opinión de que las personas deben abordar los avances tecnológicos con entusiasmo, no con miedo absoluto.

Si bien Gates admite sus temores sobre la superinteligencia, parece creer que si planificamos en consecuencia y abordamos estos temores de antemano, la humanidad no tendrá nada de qué preocuparse.

12. "Distorsión catastrófica de la economía por inteligencias artificiales diseñadas para hacer dinero para sus dueños". - Dr. Andras Kornai y Dr. Daniel Berleant

El año pasado, TechEmergence realizó una encuesta sobre los principales investigadores y científicos en los campos de los robots y la inteligencia artificial, para descubrir cuáles creían que eran los mayores temores de los que el público debería estar consciente. Los doctores Andras Kornai y Daniel Berleant señalaron las vulnerabilidades en el sector financiero como una preocupación legítima que muchos no reconocen.

A Kornai le preocupaba que los algoritmos financieros no tuvieran en cuenta los intereses de los humanos, sino que estaban programados para proteger y aumentar las ganancias a toda costa. Berleant respondió de manera similar, preocupado de que A.I. podría explotarse para aumentar la riqueza de unos pocos privilegiados a expensas de la mayoría.

13. "A menos que abordemos los desafíos de la automatización, la movilidad social podría retrasarse aún más". - Sir Peter Lampl

Kornai y Berleant no son los únicos que han señalado cómo los avances en la tecnología podrían separar aún más a los que tienen de los que no. Sir Peter Lampl, de Sutton Trust y de la Education Endowment Foundation, ha señalado que la automatización es una amenaza para los trabajadores manuales de la clase trabajadora más que cualquier otro grupo.

Él cree que la automatización podría ampliar la brecha entre las clases altas y bajas, ya que las máquinas se hacen cargo del trabajo manual y dejan a toda una clase sin las herramientas necesarias para ganarse la vida. Pide una mayor inversión en "habilidades blandas", como la comunicación, que diferenciará el trabajo humano de sus competidores robóticos y hará que los trabajadores humanos sean más valiosos.

14. "Los avances en inteligencia artificial van a crear ciertos tipos de problemas sociales o los empeorarán". - Jerry Kaplan

Autor superventas y A.I. El experto Jerry Kaplan cree que los avances en tecnología nos obligarán a examinar problemas preexistentes en nuestra sociedad, y por una buena razón. Si la tecnología se va a utilizar de forma responsable y segura, se deben tomar todas las precauciones para evitar que sea explotada por quienes desean dañar a otros.

En este sentido, Kaplan ve a A.I. y los robots no como una amenaza en sí mismos, sino como una herramienta potencialmente peligrosa que podrían utilizar los delincuentes y otros. La única forma de prevenir esto, según Kaplan, es abordar los problemas subyacentes en nuestra sociedad.

15. "Cuanto más poderoso es el robot, mayores son las apuestas. Si los robots en el futuro tienen autonomía ... esa es una receta para el desastre". - Selmer Bringsjord

Selmer Bringsjord, un científico del Instituto Politécnico Rensselaer, está preocupado tanto por la capacidad de una máquina para hacer daño como por la capacidad de los humanos para programar una máquina para hacer daño. Ciertamente es un enigma difícil.

Como expresaron otros expertos en este artículo, es esencial protegerse contra máquinas autónomas que dañen inadvertidamente a los humanos en sus intentos por cumplir sus objetivos. Del mismo modo, debemos determinar que las máquinas no tienen vulnerabilidades que puedan explotarse o corromperse. Naturalmente, tenemos un largo camino por recorrer antes de que se aborden y descarten todos estos problemas. Hasta entonces, es importante que los líderes en los campos de la investigación, la ciencia y la tecnología sigan hablando de sus preocupaciones y sugieran formas de mejorar las tecnologías futuras.


Ver el vídeo: 11 Trucos de los ricos para emprendedores Masterclass por Juan Haro (Agosto 2022).