DeepMind lanza equipo de investigación para investigar la ética de la IA

en



La filial de Google, DeepMind, se está volviendo seria en lo que respecta a la ética.

DeepMind
Créditos: 9to5google

Se trata de un buen movimiento de relaciones públicas dado las preocupaciones recientes sobre la tecnología super inteligente, pero Google, que posee DeepMind, tendrá que apoyar y escuchar a su nuevo grupo si realmente quiere construir AI seguro.

El nuevo grupo, llamado DeepMind Ethics & Society, es una nueva unidad de investigación que asesorará a científicos y desarrolladores de DeepMind mientras trabajan para desarrollar una IA cada vez más capaz y poderosa. El grupo se ha encargado de dos objetivos principales: ayudar a los desarrolladores de AI a poner en práctica la ética (por ejemplo, mantener la transparencia, la rendición de cuentas, la inclusión, etc.) y educar a la sociedad sobre los posibles impactos de la IA.

“La tecnología no es un valor neutral, y los tecnólogos deben asumir la responsabilidad por el impacto ético y social de su trabajo”, afirma un post introductorio en DeepMind. “Como atestigua la historia, la innovación tecnológica en sí misma no es garantía de un progreso social más amplio. El desarrollo de la AI crea preguntas importantes y complejas. Su impacto en la sociedad (y en todas nuestras vidas) no es algo que deba dejarse al azar. Los resultados beneficiosos y las protecciones contra los daños deben ser combatidos activamente y construidos desde el principio. Pero en un campo tan complejo como la IA, es más fácil decirlo que hacerlo”.

Te puede interesar: HP Spectre 13 y x360 se rediseñan para 2017

De hecho, estamos rápidamente entrando en un territorio desconocido. Sin control, dejar hacer el desarrollo de la IA podría llevar a cualquier número de resultados sociales indeseables, los robots que adquieren los prejuicios contra la raza, el género y la orientación sexual  a través de máquinas mal programadas propensas a errores catastróficos . En consecuencia, el nuevo grupo de ética de DeepMind dice que las aplicaciones de la IA “deben permanecer bajo control humano significativo” y ser usadas para “propósitos socialmente beneficiosos”.



A tal fin, el grupo ha establecido una lista de cinco principios básicos ; Los científicos y desarrolladores de DeepMind necesitan asegurarse de que la IA es buena para la sociedad, basada en evidencia, transparente y abierta, diversa e interdisciplinaria y colaborativa. También ha enumerado varios retos éticos clave, como mitigar los impactos económicos, manejar el riesgo de IA, acordar la moralidad y los valores de IA, y así sucesivamente. También se ha creado un grupo consultivo de becarios, entre ellos pensadores y expertos como el filósofo de la Universidad de Oxford Nick Bostrom, la economista de la Universidad de Manchester Diane Coyle, el científico de la Universidad de Princeton Edward W. Felten y Christiana Figueres.

Todo esto es muy agradable, por supuesto, e incluso bien intencionado, pero lo que importa ahora es lo que sucede a continuación.

Cuando Google adquirió DeepMind en 2014, se comprometió a crear un grupo llamado la Junta de Ética de la IA, pero no es evidente inmediatamente lo que este grupo ha hecho en los tres años y medio desde la adquisición. Como The Guardian señala , “Sigue siendo un misterio quién está en, la Junta de Ética de la IA, lo que ellos discuten, o incluso si se ha reunido oficialmente”. Esperemos que el DeepMind Ethics & Society Group comience a un mejor comienzo y en realidad hacer algo significativo.

En caso de que esto suceda, sin embargo, el grupo de ética puede ofrecer ciertos tidbits de asesoramiento que los señores DeepMind/Google no apreciarán. Por ejemplo, el consejo de ética podría desaconsejar el uso de aplicaciones orientadas a la IA en áreas que Google considere potencialmente rentables, o recomendar restricciones a la IA que limiten severamente el alcance y el potencial futuro de sus productos.

Este tipo de grupos de ética están apareciendo por todas partes en este momento (por ejemplo, OpenAI de Elon Musk ), pero es todo un vistazo a lo inevitable: la intervención del gobierno. Una vez que la IA llega a la etapa en que se convierte en una amenaza para la sociedad, y los ejemplos de daño se vuelven imposibles de ignorar, el gobierno tendrá que intervenir y comenzar a ejercer regulaciones y control.

Referencia: gizmodo


Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *