La Inteligencia Artificial (IA) es objeto de titulares desde hace tiempo, y con buena razón. Es una tecnología que tiene el potencial de revolucionar la forma en que vivimos, trabajamos e interactuamos entre nosotros. Sin embargo, también plantea un riesgo significativo para la sociedad si no se desarrolla y regula adecuadamente. Esto ha llevado a figuras destacadas como Elon Musk, Bill Gates y Steve Wozniak a pedir una pausa en el entrenamiento de sistemas de IA más potentes que GPT-4, un modelo de IA desarrollado por OpenAI.

En una carta publicada por el Future of Life Institute, una organización sin ánimo de lucro respaldada por Musk, los firmantes advertían de que los sistemas de IA más potentes que GPT-4 podrían “plantear profundos riesgos para la sociedad y la humanidad”. Instaron a los laboratorios de IA a pausar el entrenamiento de tales sistemas durante al menos seis meses y a desarrollar un conjunto de protocolos compartidos para herramientas de IA que sean seguras “más allá de toda duda razonable.” Esta llamada a la cautela pone de relieve los peligros potenciales de la IA, que puede cometer errores horribles si no sabe lo que es la humanidad.

Carta Abierta para pausar experimentos de AI

Elon Musk, cofundador de OpenAI y de la empresa que desarrolló ChatGPT, ha advertido de que la IA es “uno de los mayores riesgos” para la civilización. Musk cree que es necesaria una regulación para evitar que la IA sea más peligrosa que los coches, los aviones o las drogas. Subraya la necesidad de un desarrollo y una regulación cuidadosos de la IA para evitar consecuencias imprevistas.

Por el contrario, Bill Gates cree que la IA como ChatGPT es la innovación “más importante” en estos momentos. Gates señala que las optimizaciones que la IA puede proporcionar para la lectura y la escritura tendrán un “impacto enorme” y prevé que la IA se integre en software de colaboración como Microsoft Teams para realizar un seguimiento de las conversaciones y producir información relevante basada en las reuniones.

Steve Wozniak, cofundador de Apple, reconoce la utilidad de ChatGPT, pero también advierte de que la IA puede cometer “errores horribles” si no entiende a la humanidad. Wozniak añade que la IA no puede sustituir actualmente a los conductores humanos.

Decalogo de Principios Éticos de la IA

Los Principios de la IA de Asilomar, tal y como se han descrito anteriormente, se crearon para garantizar que la investigación y el desarrollo de la IA se ajusten a los valores humanos y beneficien a la humanidad. Abarcan una amplia gama de temas relacionados con la seguridad, la transparencia, el impacto ético y social, la equidad, la responsabilidad y el control humano. Estos principios se crearon en la Conferencia Asilomar sobre IA Beneficiosa de 2017, organizada por el Future of Life Institute, una organización sin ánimo de lucro dedicada a mejorar la coordinación y el pensamiento colectivo sobre el futuro de la IA. Los Principios de IA de Asilomar han sido ampliamente respaldados y son reconocidos como formativos para muchos esfuerzos posteriores de ética y gobernanza de la IA. Los principios hacen hincapié en la importancia de planificar y gestionar la IA avanzada con cuidado y recursos, sometiendo los sistemas de IA a una evaluación y mitigación de riesgos, y garantizando que los beneficios de la IA se compartan entre todas las personas.

Objetivos de la búsqueda: el objetivo de la investigación en IA no debe ser crear una inteligencia no dirigida, sino una inteligencia beneficiosa.

Fondos para la investigación: Los gobiernos y otras partes interesadas deberían financiar la investigación sobre las implicaciones éticas, económicas y sociales de la IA.

Interfaz entre ciencia y política: Debe existir un diálogo transparente y abierto entre los responsables políticos y los investigadores para garantizar que la IA se desarrolle y utilice en beneficio del interés público.

Evaluación y mitigación de riesgos: Los investigadores y desarrolladores de IA deben identificar y mitigar los riesgos potenciales asociados al desarrollo y despliegue de la IA.

Impacto ético y social: Los investigadores y desarrolladores de IA deben dar prioridad al impacto ético y social de la IA y considerar las posibles implicaciones de su trabajo en la sociedad.

Seguridad: Los sistemas de IA deben diseñarse y utilizarse de forma que se minimicen los riesgos de daños.

Solidez: Los sistemas de IA deben diseñarse para funcionar de forma robusta y segura.

Exactitud: Los sistemas de IA deben diseñarse y funcionar de forma que sean precisos, transparentes y explicables.

Privacidad: Las personas deben tener derecho a acceder, gestionar y controlar los datos que generan, siempre que no infrinjan los derechos de los demás.

Seguridad: Los sistemas de IA deben diseñarse y funcionar para garantizar la seguridad de los datos y los sistemas.

Transparencia: Todo sistema de IA debe ser transparente en su funcionamiento y estar sujeto a auditorías y cuestionamientos.

Valores humanos: Los sistemas de IA deben diseñarse de acuerdo con los valores humanos, como la libertad individual, la felicidad y la autonomía humana.

Equidad: Los sistemas de IA deben diseñarse y funcionar para garantizar la imparcialidad y mitigar los prejuicios.

No discriminación: Los sistemas de IA deben diseñarse y funcionar de forma que se evite la discriminación de individuos o grupos.

Responsabilidad: Los responsables del desarrollo, despliegue y funcionamiento de los sistemas de IA deben rendir cuentas de su impacto en la sociedad, el medio ambiente y las personas.

Controlabilidad: Los sistemas de IA deben diseñarse y operarse de forma que permitan el control humano.

Explicabilidad: Los sistemas de IA deben diseñarse y operarse de forma que ofrezcan explicaciones comprensibles de su comportamiento.

Consentimiento informado: Las personas deben estar plenamente informadas de las capacidades y limitaciones de los sistemas de IA antes de utilizarlos.

Trabajo e ingresos: La IA debe desarrollarse y desplegarse de forma que beneficie a todas las personas y no aumente la desigualdad económica.

Beneficios compartidos: Los beneficios de la IA deben repartirse entre todas las personas, no sólo entre unos pocos individuos u organizaciones.

Normas compartidas: Los sistemas de IA deben diseñarse y funcionar de acuerdo con normas y valores compartidos.

Coordinación mundial: La coordinación y cooperación internacionales son necesarias para garantizar que la IA se desarrolle y utilice de forma segura, ética y beneficiosa para todos.

Scott Galloway en Summit: Predicciones provocativas del futuro de la tecnología.

Scott Galloway, reconocido empresario, profesor y experto en marketing, compartió sus pensamientos y perspectivas únicas durante su participación en el Summit. En su discurso, se mostró vulnerable y transparente al hablar sobre sus propias luchas, lo que hizo que su charla fuera auténtica y conectara con la audiencia. A continuación, se resumen algunos de los […]

La mayoría de los adultos estadounidenses conoce el ChatGPT, pero su utilización es desigual

La inteligencia artificial (IA) se ha convertido en una parte cada vez más común de la vida diaria, y uno de los chatbots de IA más populares es ChatGPT. Según una encuesta reciente realizada por el Centro de Investigación Pew, el 58% de los adultos estadounidenses está familiarizado con ChatGPT, pero solo el 14% lo […]

Líderes de la IA advierten del “riesgo de extinción”

Riesgos de la IA Centenares de destacados líderes de la industria de IA y científicos de investigación firmaron una declaración de 22 palabras diciendo lo siguiente: “Mitigar el riesgo de extinción por la IA debe ser una prioridad global junto a otros riesgos a escala societal, como pandemias y guerra nuclear. Los líderes de la […]

Google apuesta fuerte por la IA: lo más destacado del evento I/O reciente

El evento I/O reciente de Google fue una emocionante demostración de innovaciones centradas en la IA. La empresa tecnológica dejó claro que se está desarrollando como una compañía “primero la IA”. En este artículo, exploraremos algunos de los aspectos más destacados del evento I/O y analizaremos cómo Google se posiciona como líder en el desarrollo […]

Imagen falsa generada por IA de explosión en el Pentágono hace que la bolsa de valores se desplome

Imagen falsa generada por IA de explosión en el Pentágono hace que la bolsa de valores se desplome: El 22 de mayo de 2023, una imagen falsa de una explosión cerca del Pentágono se volvió viral en las redes sociales. La imagen fue creada utilizando inteligencia artificial (IA) y fue compartida rápidamente por cuentas verificadas, […]

Google apuesta fuerte por la IA: lo más destacado del evento I/O reciente

El evento I/O reciente de Google fue una emocionante demostración de innovaciones centradas en la IA. La empresa tecnológica dejó claro que se está desarrollando como una compañía “primero la IA”. En este artículo, exploraremos algunos de los aspectos más destacados del evento I/O y analizaremos cómo Google se posiciona como líder en el desarrollo […]

Chatbot de Wendy para el drive-thru: Mejorando la experiencia del cliente y la eficiencia operativa

Chatbot de Wendy para el drive-thru: Mejorando la experiencia del cliente y la eficiencia operativa

¿Estás cansado de esperar en largas filas en el drive-thru? ¿Quieres poder ordenar tu comida favorita de Wendy’s sin problemas? ¡Buenas noticias! Wendy’s se está asociando con Google para desarrollar un chatbot de inteligencia artificial (IA) que tome tus pedidos en el drive-thru, con el objetivo de reducir los tiempos de espera y mejorar la […]

Watsonx.ai

IBM lanza Watsonx.ai, una plataforma de IA para empresas

La inteligencia artificial (IA) está transformando el mundo de los negocios y IBM quiere estar a la vanguardia de esta revolución. Es por eso que la empresa ha lanzado Watsonx.ai, una nueva plataforma de IA que tiene como objetivo ayudar a las empresas a construir y implementar modelos de IA con facilidad y eficiencia. Características […]

ImageBind

Descubre ImageBind: el último proyecto de código abierto de Meta

Meta ha desarrollado un nuevo modelo de investigación de IA llamado ImageBind, que puede entender y combinar datos de seis tipos diferentes de fuentes: texto, audio, visual, movimiento, térmico y profundidad. ImageBind es el primer modelo de IA capaz de integrar datos de seis modalidades a la vez, sin necesidad de supervisión explícita. Esto le […]

Londres

El Reino Unido y Estados Unidos toman medidas masivas sobre la regulación de la IA

La regulación de la inteligencia artificial (IA) se ha convertido en un tema prioritario para los gobiernos del Reino Unido y Estados Unidos, que han anunciado diversas acciones para supervisar el rápido avance de esta tecnología. La inteligencia artificial es una tecnología que tiene el potencial de transformar muchos sectores y actividades económicas, desde la […]

Por marcel

Un comentario en «Steve Wozniak y Elon Musk advierten: “ChatGPT es un gran peligro para las personas” y piden una pausa en proyectos de AI»

Los comentarios están cerrados.