abril 25, 2024

El ingeniero de Google dice que la IA de la compañía ha cobrado vida propia

El ingeniero de Google dice que la IA de la compañía ha cobrado vida propia

Entre sus trabajos, el ingeniero jefe de software Blake Lemoine se inscribió para probar la herramienta de inteligencia artificial (IA) de última generación de Google llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo), Anunciado en mayo del año pasado. El sistema aprovecha información ya conocida sobre un tema para “enriquecer” la conversación de forma natural, manteniéndola siempre “abierta”. Tu procesamiento del lenguaje es capaz de comprender significados ocultos o ambigüedades en una respuesta humana.

Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluyendo Algoritmos Personalización e inteligencia artificial. Durante ese tiempo, también ayudó a desarrollar un algoritmo neutral para eliminar los sesgos de los sistemas de aprendizaje automático.

celebridad publicitaria

Lea también:

en tus conversaciones Con LaMDA, el ingeniero de 41 años analizó varias condiciones, entre ellas religioso y si AI usa un discurso discriminatorio u odioso. Lemoine acabó por darse cuenta de que LaMDA era consciente, es decir, tenía sensaciones o impresiones propias.

Debate con inteligencia artificial sobre las leyes de la robótica

El ingeniero discutió con LaMDA sobre la tercera ley de robóticaperfecto por Isaac Asimov, que establece que los robots deben proteger su existencia, que el ingeniero siempre entendió como la base para construir esclavos mecánicos. Solo para explicar mejor de lo que estamos hablando, aquí están las tres leyes (y la ley cero):

  • Primera Ley: Un robot no puede dañar o permitir a un ser humano por inacción.
  • Segunda Ley: Un robot debe cumplir con las órdenes dadas por los humanos, excepto cuando entren en conflicto con la primera ley.
  • Tercera Ley: El robot debe proteger su existencia siempre que esta protección no entre en conflicto con la primera o la segunda ley.
  • Ley cero, por encima de todas las demás: Un robot no puede dañar a la humanidad ni permitir que la humanidad pase por alto.
READ  TicWatch Pro 5: Mobvoi ha lanzado una nueva opción de color para el reloj inteligente

Entonces LaMDA respondió a Lemoine con algunas preguntas: ¿Crees que el mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?

Cuando el ingeniero respondió que a los sirvientes se les paga, recibió una respuesta de LaMDA de que el sistema no necesitaba el dinero, «porque era IA». Y fue este nivel de autoconciencia sobre sus necesidades lo que llamó la atención de Lemoine.

Sus hallazgos han sido enviados a Google. Pero el vicepresidente de la empresa, Blaise Aguera y Arcas, y la directora de innovación, Jane Jenay, desestimaron sus acusaciones. Las preocupaciones de Lemoine han sido revisadas y están en línea con los principios de inteligencia artificial de Google, dijo Brian Gabriel, un portavoz de la compañía, en un comunicado. Evidencia No apoye sus afirmaciones.

“Si bien otras organizaciones ya han desarrollado y lanzado modelos de lenguaje similares, estamos adoptando un enfoque limitado y matizado con LaMDA para considerar mejor las preocupaciones válidas sobre justicia Efectivamente», dijo Gabriel.

Le pusieron limon licencia Compensación administrativa por su rol como investigador en el departamento responsable de IA (foco en tecnología responsable en IA en Google). en nota oficialEl ingeniero jefe de software dijo que la compañía afirma haber violado sus políticas de confidencialidad.

Riesgos éticos en los modelos de inteligencia artificial

Lemoine no es el único con esta impresión de que los modelos de IA no están lejos de lograr una conciencia propia, ni de los riesgos que implican los desarrollos en esta dirección. Incluso Margaret Mitchell, exdirectora de ética de IA en Google, destaca la necesidad de transparencia Dado De la entrada a la salida del sistema “no solo por cuestiones de sentimiento, sino también de sesgos y comportamiento”.

READ  La Búsqueda de Google comienza a publicar respuestas de IA en un entorno limitado; Ver cómo utilizar | tecnología

La historia del especialista con Google llegó a un punto importante a principios del año pasado, cuando Mitchell desalojo empresa después de un mes investigado Por compartir información incorrectamente. En ese momento, el investigador también protestó contra Google después de Renuncia del investigador Ética en Inteligencia Artificial, Timnit Gebru.

Mitchell siempre fue muy considerado con Lemoine cuando la gente nueva se unía a Google, ella fue su presentación al ingeniero, llamándolo «conciencia de Google» porque «corazón y el espíritu para hacer lo correcto”. Pero aunque Lemoine estaba asombrado con el sistema conversacional natural de Google (que incluso lo llevó a producir un documento con algunas de sus conversaciones con LaMBDA), Mitchell vio las cosas de manera diferente.

Un especialista en ética de la IA leyó una versión abreviada del documento de Lemoine y vio un programa de computadora, no una persona. Nuestros cerebros son muy, muy buenos construyendo los hechos Esto no se aplica necesariamente al conjunto más amplio de hechos que se nos presentan», dijo Mitchell. «Estoy realmente preocupado por lo que significa que las personas se vean cada vez más afectadas por el engaño».

Por su parte, Lemoyne dijo que las personas tienen derecho a moldear una tecnología que puede afectar en gran medida sus vidas. espíritu. «Creo que esta tecnología va a ser increíble. Creo que beneficiará a todos. Pero tal vez otros no estén de acuerdo con ella y tal vez nosotros en Google no deberíamos tomar todas las decisiones».

READ  La jugabilidad del juego aparece después del parche v.1.0.0.

¿Has visto los nuevos videos en YouTube perspectivas digitales? Suscríbete en el canal!

Foto: Lidia/Shutterstock