PolíticaTecnologia

Google asegura que no usará inteligencia artificial para crear armas

La rebelión sucedida en Mountain View, por los empleados, ha dado buenos frutos

El director ejecutivo de Google, Sundar Pichai, ha dado una conferencia en la que ha manifestado, “Queremos dejar claro que nunca emplearemos la inteligencia artificial para el desarrollo de armas”, y no ha podido ser más claro, rotundo y contundente y por supuesto, todo se debe a la pequeña revolución que tuvo lugar en el Campus de la compañía en la sede de Mountain View, donde varios empleados habrían manifestado su renuncia luego de enterarse que la empresa estaba involucrada en acuerdos de atributo militar con el Pentágono.

Todo comenzó por la develación del Proyecto Maven, a través del cual los sistemas de defensa norteamericanos emplearían inteligencia artificial para optimizar su capacidad, en esta instancia un grupo grande de empleados de la compañía le dirigieron una carta al directivo de Google, al no ser escuchadas sus demandas presentaron su dimisión, lo que alborotó aún más el descontento en los pasillos de la compañía tecnológica y la tormenta generada en el interior del campus Mountain View fue agrandándose, hasta que el CEO de Google, Sundar Pichai ha decidido tomar cartas en el asunto.

En un comunicado que aparece hoy en su blog oficial, el directivo rechaza con total rotundidad un viable empleo del “know-how” de inteligencia artificial de la compañía con en algún procedimiento militar, Pichai, ha publicado lo que podemos considerar un manifiesto pacifista con el nombre de “IA en Google: nuestros principios”, y en el que recalca las indudables ventajas de la aplicación de dicha tecnología en todos los ámbitos, y muy en especial de su capacidad de “resolver problemas”, el CEO explica que la IA o inteligencia artificial, logra que sus servicios y productos sean más útiles, haciendo mención expresa de Gmail, pero no abandona la discusión.

Por este motivo, se inquiere la presencia de una disputa moral, expresando el alcance del potencial o si se usa con otros fines, “Como líder en IA, sentimos una gran responsabilidad por hacer esto bien”, expone, puesto que siendo conscientes de la amenaza que implicaría el mal uso de ese potencial.

Leyes de Google.
Google presentó una serie de reglas por las que se regirá para el uso apropiado de la inteligencia artificial.

¡Unas “Leyes de Asimov” para Google!

Pichai manifestó que la empresa necesitaba la creación de un marco moral o unas líneas que Google jamás traspasará, lo que se puede razonar como las “Leyes de Asimov” para Google.

El manifiesto pacifista de Google, para dejar el asunto de importancia mundial, zanjado y queriendo dejar las cosas claras, ha dedicado expresamente ciertos lineamientos de las “Cosas que nunca haremos”, aunque hay quien argumente que no es estricta del todo y finalmente es algo ambigua.

Aunque en el siguiente punto aclare del todo que, no crearemos “armas u otras tecnologías cuya principal misión sea infringir daño a la gente”, que para los que conocemos el devenir de las cosas es muy tranquilizadora a pesar de que Pichai, afirmó que Google “seguirá trabajando con el gobierno y los militares en otras áreas que incluyen la ciber seguridad, entrenamiento, reclutamiento, asistencia a veteranos y rescate”. ¿Suficiente o más confuso?

Estas son las reglas que Google a partir de ahora, serán usadas para evaluará los proyectos de inteligencia artificial en base en los siguientes objetivos:

  1. Que sea socialmente benéfica. Google dice que tomará en cuenta una amplia gama de factores sociales y económicos, y procederá en los casos en los que crean en los beneficios, como en áreas de atención médica, seguridad, energía, transporte, manufactura, entretenimiento y otras más.
  2. Evitar crear o reforzar un sesgo injusto. Como lo veíamos con ‘Norman’, en este punto la compañía asegura que trabajará para evitar «impactos injustos» en sus algoritmos, donde evitarán inyectar sesgo racial, sexual o político en la toma de decisiones automatizada.
  3. Estar construida y probada para ser segura. Aquí mencionan que seguirán implementando estrictas prácticas de seguridad y protección para evitar resultados que generen daño. Asegurando que probarán las tecnologías de IA en entornos controlados y supervisarán su funcionamiento después de su implementación.
  4. Ser responsable con las personas. «Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano». Es decir, una inteligencia artificial que siempre estará respaldada y bajo el control de un ser humano.
  5. Incorporar principios de diseño de privacidad. Google busca blindarse al asegurar que su IA respetará la privacidad de los datos que obtiene. Sin duda un punto importante al saber que Google usa IA en casi todos sus servicios, desde Gmail hasta Fotos y mucho más.
  6. Mantener altos estándares de excelencia científica. Google sabe que la inteligencia artificial tiene el potencial de ayudar en nuevos ámbitos científicos y de investigación, por lo que se comprometen a apoyar la investigación abierta, el rigor intelectual, la integridad y la colaboración.
  7. Estar disponible para usos que vayan de acuerdo con estos principios. Este punto envuelve a todos los anteriores y deja claro el error de Project Maven, ya que, si algún proyecto va en contra de estos principios, simplemente no lo tomarán. Aquí Google especifica escenarios potencialmente dañinos o abusivos que serán evaluados de acuerdo con cuatro puntos: Propósito y uso principal, naturaleza y singularidad, escala y la naturaleza de la participación de Google.

Google, crea una nueva filosofía que deberá garantizar, que no diseñará o desplegará desarrollos en inteligencia artificial en las siguientes áreas:

  • «Tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos sólo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas.»
  • «Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar de manera directa lesiones a las personas.»
  • «Tecnologías que recopilan o usan información para la vigilancia que violan las normas internacionalmente aceptadas.»
  • «Tecnologías cuyo propósito infringe principios de derecho internacional ampliamente aceptados y derechos humanos.»
Fuente
Efe

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Translate »
error: