Google ha realizado sus cambios más significativos Principios de IA Desde la primera publicada en 2018. En el cambio que se encontró Washington PostRevisó el documento para eliminar las afirmativas de la empresa de búsqueda "Forma o clasificación" Herramientas de IA para usar en armas o tecnología de seguimiento. Anteriormente, había una sección de esas pautas "Aplicaciones que no hemos continuado," Esto no está en la versión actual del documento.
En cambio, ahora hay una sección "Crecimiento responsable y clasificación." Allí, Google dice que esto se implementará "La supervisión humana apropiada, la perseverancia apropiada y los mecanismos de retroalimentación para la fusión de los objetivos del usuario, la responsabilidad social y el derecho internacional y las políticas ampliamente aceptadas de los derechos humanos."
La versión anterior de sus políticas de IA a fines del mes pasado fue una dedicación mucho más amplia que la que la compañía creó recientemente en su sitio web. Por ejemplo, como está asociado con las armas, la compañía dijo que la compañía no diseñaría IA antes "Las armas u otras tecnologías, su objetivo o implementación principal se lastiman o facilita directamente a las personas. «En cuanto a los equipos de seguimiento de IA, la compañía dijo que no desarrollaría una tecnología de violación "Términos aceptados internacionalmente."
Cuando se le pidió comentarios, un portavoz de Google señaló a Engjetget Blog La compañía fue lanzada el jueves. En TI, el CEO de Deep Mind, Demis Hassafis y el Vicepresidente Senior de Investigación, Laboratorio, Tecnología y Comunidad en Google "Tecnología de propósito general" Se requiere el cambio de política.
"Creemos que la democracia debería liderar en el desarrollo de la IA liderado por valores clave como la libertad, la igualdad y el respeto por los derechos humanos. Esperamos que las empresas que compartan estos valores, gobiernos e instituciones deben trabajar juntas para proteger a las personas, promover el crecimiento global y apoyar la seguridad nacional." Ambos escribieron. "… Continuaremos enfocándonos en nuestro trabajo, nuestro enfoque científico y nuestra experiencia, y continuaremos enfocándonos en la investigación y las aplicaciones de IA que están conectadas a nuestras áreas especializadas, y estamos en armonía con las políticas ampliamente aceptadas de Derecho internacional y derechos humanos: siempre evalúa lo que se observa son los riesgos más que posibles."
Cuando Google presentó por primera vez sus políticas de IA en 2018, lo hizo después del proyecto Mewan. Este es un contrato gubernamental controvertido, y si Google ha decidido actualizarlo, la compañía verá el software de IA al Departamento de Defensa para analizar las escenas de drones. Docenas de empleados de Google dejaron a la compañía contra el acuerdo y miles firmaron una petición en oposición. Cuando Google finalmente lanzó sus nuevas pautas, el CEO Sundar Pichai dijo que se enfrentarían al personal "Prueba del tiempo."
Sin embargo, para 2021, Google comenzó a reanudar los acuerdos militares "Ocupación" La capacidad conjunta de la nube de combate de Pentágono oferta para el acuerdo de nube. A principios de este año Washington Post El personal de Google anunció que funcionó varias veces para expandir el uso de herramientas de IA gubernamentales con el Ministerio de Defensa israelí.
Este artículo apareció originalmente en https://www.engadget.com/i/google-now-ins-ok-ok-ok-ok-oseworson- y vigilancia-224824373.html?
Enlace de origen