Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


En nuestra prisa por comprender y relacionarnos con la IA, hemos caído en una trampa seductora: atribuir características humanas a estos sistemas robustos pero fundamentalmente no humanos. Esta antropomorfización de la IA no es sólo una peculiaridad inofensiva de la naturaleza humana: se está convirtiendo en una tendencia peligrosa que nubla nuestro juicio de manera crítica. Los líderes empresariales comparan el aprendizaje de la IA con la educación humana para justificar los métodos de capacitación ante los legisladores que crean políticas basadas en analogías defectuosas entre humanos y IA. Esta tendencia a humanizar la IA puede moldear de manera inapropiada decisiones clave en todas las industrias y marcos regulatorios.

Ver la IA a través de una lente humana en los negocios ha llevado a las empresas a sobreestimar las capacidades de la IA o subestimar la necesidad de supervisión humana, a veces con consecuencias costosas. Hay mucho en juego en la legislación sobre derechos de autor, donde el pensamiento humanista ha llevado a comparaciones problemáticas entre el aprendizaje humano y la formación en IA.

Trampa del lenguaje

Escuche cómo hablamos de la IA: “aprende”, “piensa”, “comprende” e incluso “crea”. Estas palabras humanas suenan naturales, pero pueden resultar engañosas. Cuando decimos que un modelo de IA está «aprendiendo», no nos referimos a que adquiera conocimientos como un alumno humano. En cambio, realiza análisis estadísticos complejos sobre grandes cantidades de datos, ajustando pesos y parámetros en sus redes neuronales basándose en fórmulas matemáticas. Ninguna idea, ningún momento eureka, ninguna chispa de creatividad o comprensión real: solo una combinación de patrones cada vez más sofisticada.

Esta perspicacia lingüística es más que sólo semántica. Como se menciona en el documento, El caso ilusorio de la IA generativa a favor del uso legítimo: «El uso de lenguaje antropomórfico para describir el desarrollo y el desempeño de los modelos de IA es distorsionante porque implica que una vez entrenado, el modelo opera independientemente del contenido de la entrada entrenada». Esta confusión tiene consecuencias reales, especialmente cuando afecta decisiones legales y políticas.

Desconexión cognitiva

Uno de los aspectos más peligrosos de la antropomorfización de la IA es cómo enmascara diferencias fundamentales entre la inteligencia humana y la artificial. Si bien algunos sistemas de IA sobresalen en ciertos tipos de tareas analíticas y de razonamiento, los grandes modelos lingüísticos (LLM) que dominan el discurso actual de la IA (y en los que nos centramos aquí) operan mediante el reconocimiento de patrones avanzado.

Estos sistemas procesan grandes cantidades de datos, identificando y aprendiendo relaciones estadísticas entre palabras, frases, imágenes y otras entradas para predecir qué sucederá a continuación en una secuencia. Cuando decimos que «aprenden», describimos un proceso de optimización matemática que les ayuda a realizar predicciones más precisas basadas en sus datos de entrenamiento.

Considere este excelente ejemplo de la investigación. Berglund y sus colegas: Un modelo entrenado con materiales que dicen «A es igual a B» a menudo no razona tan bien como lo haría un humano para concluir que «B es igual a A». Si una IA sabe que Valentina Tereshkova es la primera mujer en el espacio, pregunta: «¿Quién es Valentina Tereshkova?». se puede responder correctamente. Pero «¿Quién fue la primera mujer en el espacio?» Esta limitación revela una diferencia fundamental entre el reconocimiento de patrones y el razonamiento verdadero: entre predecir posibles secuencias de palabras y comprender su significado.

Este sesgo antropomórfico tiene implicaciones particularmente preocupantes en el debate actual sobre la IA y los derechos de autor. Satya Nadella, director ejecutivo de Microsoft Entrenamiento de IA comparado recientemente Para el aprendizaje humano, esto sugiere que la IA puede hacer lo mismo si los humanos pueden aprender de libros sin implicaciones de derechos de autor. Esta comparación ilustra perfectamente el peligro del pensamiento antropomórfico en los debates sobre la IA ética y responsable.

Algunos sostienen que es necesario modificar esta analogía para comprender el aprendizaje humano y el entrenamiento de la IA. Cuando los humanos leemos libros, no hacemos copias de ellos: entendemos e interiorizamos conceptos. Por otro lado, los sistemas de inteligencia artificial deben hacer copias físicas de las obras (a menudo obtenidas sin permiso ni pago), codificarlas en su estructura y gestionar estas versiones codificadas para que funcionen. Las tareas no desaparecen después del “aprendizaje”, como suelen afirmar las empresas de IA; Están incrustados en Redes neuronales del sistema.

Punto ciego empresarial

La antropomorfización de la IA crea peligrosos puntos ciegos en la toma de decisiones empresariales más allá de simples ineficiencias operativas. Cuando los ejecutivos y tomadores de decisiones piensan que la IA es “creativa” o “inteligente” en términos humanos, puede conducir a una cascada de suposiciones riesgosas y posibles responsabilidades legales.

Sobreestimar las capacidades de la IA

Un área importante donde la antropomorfización plantea un riesgo es la producción de contenidos y el cumplimiento de los derechos de autor. Cuando las empresas consideran que la IA tiene la capacidad de «aprender» como los humanos, pueden asumir erróneamente que el contenido generado por IA está automáticamente exento de cuestiones de derechos de autor. Este malentendido lleva a las empresas a:

  • Implementar sistemas de inteligencia artificial que reproduzcan sin darse cuenta material protegido por derechos de autor, exponiendo a la empresa a demandas por infracción.
  • No se pudieron implementar procedimientos adecuados de filtrado y monitoreo de contenido
  • Cometa el error de suponer que la IA puede distinguir de forma fiable entre material de dominio público y material protegido por derechos de autor.
  • Subestimar la necesidad de revisión humana en los procesos de producción de contenidos.

El cumplimiento de los límites es un punto ciego

El sesgo antropomórfico en la IA crea peligros cuando consideramos el cumplimiento transfronterizo. Según lo explicado por Daniel Gervais, Haralambos Marmanis, Noam Shemtov y Catherine Zaller Rowland “El meollo del asunto: derechos de autor, formación en IA y LLM,“La ley de derechos de autor opera sobre principios territoriales estrictos, y cada jurisdicción tiene sus propias reglas sobre infracción y qué excepciones se aplican.

Esta naturaleza territorial de la ley de derechos de autor crea una red compleja de responsabilidad potencial. Las empresas pueden asumir erróneamente que sus sistemas de IA pueden «aprender» libremente de materiales protegidos por derechos de autor en una jurisdicción, sin reconocer que las actividades de capacitación que son legales en un país pueden ser infractoras en otro. La UE reconoce este riesgo en su legislación sobre IA, en particular mediante Lectura 106Cualquier modelo de IA de propósito general proporcionado en la UE debe cumplir con la ley de derechos de autor de la UE con respecto a los datos de capacitación, independientemente de dónde se llevó a cabo esa capacitación.

Esto es importante porque antropomorfizar las capacidades de la IA puede llevar a que las empresas subestimen o malinterpreten sus obligaciones legales transfronterizas. La noción flexible de que la IA «aprende» como los humanos oscurece el hecho de que el entrenamiento de la IA implica operaciones complejas de copia y almacenamiento que desencadenan diferentes obligaciones legales en otras jurisdicciones. Este malentendido fundamental de la función real de la IA, combinado con la naturaleza territorial de la ley de derechos de autor, crea riesgos significativos para las empresas que operan en todo el mundo.

costo humano

Uno de los costos más relevantes es el costo emocional de antropomorfizar la IA. Cada vez más, las personas forman vínculos emocionales con los chatbots de IA, tratándolos como amigos o confidentes. sera especial Peligroso para las personas vulnerables Puede compartir información personal o depender de la IA para obtener apoyo emocional que no puede brindar. Las respuestas de la IA, aunque aparentemente empáticas, son una sofisticada coincidencia de patrones basada en datos de entrenamiento, sin comprensión real ni conexión emocional.

Esta vulnerabilidad emocional también se manifiesta en entornos profesionales. A medida que las herramientas de IA se integran más en el trabajo diario, los empleados pueden desarrollar una confianza indebida en estos sistemas, tratándolos como verdaderos colegas en lugar de herramientas. Es posible que compartan información laboral confidencial con demasiada libertad o duden en informar errores por un sentido de lealtad fuera de lugar. Si bien estos escenarios se encuentran actualmente aislados, resaltan cómo la humanización de la IA en el lugar de trabajo puede crear dependencias poco saludables de sistemas incapaces de una verdadera comprensión o atención, a pesar de sus sofisticadas respuestas.

Liberarse de la trampa antropomórfica

Entonces, ¿cómo procedemos? Primero, debemos ser más precisos en nuestro lenguaje sobre la IA. En lugar de decir que la IA «aprende» o «comprende», puede decir que «procesa datos» o «genera resultados basados ​​en patrones en sus datos de entrenamiento». Esto no es sólo pedante: ayuda a aclarar lo que hacen estos sistemas.

En segundo lugar, debemos evaluar los sistemas de IA en función de lo que esperan, no de lo que esperan. Esto significa reconocer tanto sus impresionantes capacidades como sus limitaciones fundamentales. La IA puede procesar grandes cantidades de datos y detectar patrones que los humanos pasan por alto, pero no puede interpretar, razonar o crear como lo hacen los humanos.

Finalmente, necesitamos desarrollar marcos y enfoques que aborden las características reales de la IA en lugar de las características humanas que asumimos. Esto es especialmente crucial en el derecho de autor, donde el pensamiento antropomórfico puede conducir a analogías erróneas y conclusiones jurídicas inapropiadas.

camino a seguir

A medida que los sistemas de IA se vuelven más sofisticados a la hora de simular los resultados humanos, la tentación de antropomorfizarlos se hace más fuerte. Este sesgo antropomórfico afecta todo, desde cómo evaluamos las capacidades de la IA hasta la forma en que evaluamos sus riesgos. Como hemos visto, esto se extiende a importantes desafíos prácticos en torno a la ley de derechos de autor y el cumplimiento empresarial. Cuando atribuimos capacidades de aprendizaje humano a los sistemas de IA, necesitamos comprender su naturaleza básica y la realidad tecnológica en la que procesan y almacenan información.

Comprender la IA (sistemas avanzados de procesamiento de información, no aprendices parecidos a los humanos) es fundamental para todos los aspectos de la gobernanza y el despliegue de la IA. Al superar el pensamiento antropomórfico, podremos abordar mejor los desafíos de los sistemas de IA, desde consideraciones éticas y riesgos de seguridad hasta el cumplimiento transfronterizo de derechos de autor y la gobernanza de datos de capacitación. Esta comprensión más precisa ayudará a las empresas a tomar decisiones más informadas, lo que respaldará un mejor desarrollo de políticas y un mejor discurso público sobre la IA.

Cuanto antes aceptemos la verdadera naturaleza de la IA, mejor equipados estaremos para afrontar sus profundas implicaciones sociales y desafíos prácticos en nuestra economía global.

Ronnie Levy es consultor legal y de licencias. CCC.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

Los tomadores de decisiones en materia de datos son expertos, incluidos los técnicos que trabajan con datos, que pueden compartir conocimientos e innovaciones relacionados con los datos.

Si desea leer sobre ideas de vanguardia y la información más reciente, las mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podrías considerar enviar tu propio artículo!

Leer más de DataDecisionMakers


Source link