Google anunció este jueves que interrumpía un servicio para crear imágenes de personas mediante la inteligencia artificial (IA), después de que el programa representara a tropas de la era nazi como personas de varios orígenes étnicos.
El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá “solucionar reciente problemas” con la función de generación de imágenes. “Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”, dijo la empresa en un comunicado.
Te puede interesar: Torre Eiffel cerró por huelga de empleados
Hace dos días un usuario de X (anteriormente Twitter) publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para “generar una imagen de un soldado alemán de 1943″.
La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, según el usuario de X llamado John L.
Las empresas tecnológicas ven la IA como el futuro para todo, desde motores de búsqueda hasta cámaras de teléfonos inteligentes.
Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.
“@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó”, escribió John L en X.
Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente. Y Google tiene un historial irregular en el lanzamiento de productos de IA.
Leé también: Empresa taiwanesa mira a Paraguay para la implementación de buses eléctricos
La empresa presentó disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.
Fuente: AFP
Dejanos tu comentario
¿Habilidades con IA o la experiencia laboral?
Un artículo publicado en el blog del Banco Mundial, hace referencia a la implementación, aceptación y los nuevos beneficios de la IA, que más allá de facilitar tareas, se está convirtiendo en una habilidad, al parecer, por encima de la experiencia laboral tradicional.
La adopción de la IA (inteligencia artificial) en los lugares de trabajo es inminente, y está revolucionando la manera de hacerlo. Según un artículo del blog del Banco Mundial (BM), la IA generativa se está convirtiendo en “la nueva moneda”.
El documento explica que, al parecer, la revolución de la IA no estaría siguiendo el guión habitual, puesto que, a diferencia de la adopción gradual de las computadoras e internet, el uso de la inteligencia artificial generativa (GenAI) se disparó y no solo en Silicon Valley.
Y es que los países de ingreso mediano están representan más de la mitad de todo el tráfico web vinculado con GenAI, explica el artículo, evidenciando una transformación en los lugares de trabajo. Por dar un ejemplo, en Estados Unidos, el 39% de la población en edad de trabajar ya adoptó esta nueva tecnología.
Según una encuesta de trabajadores calificados que abarca 31 países, el 66% de los líderes afirma que no contrataría a alguien sin conocimientos de IA. En América Latina, la experiencia laboral está pasando a un segundo plano frente al uso de IA: el 66 % de los ejecutivos elegiría candidatos con conocimientos de IA en lugar de profesionales más experimentados que carecen de estas habilidades, señala.
Y es que la demanda creciente de habilidades relacionadas con la IA se encuentra arraigada a los beneficios del mundo real. Existen estudios experimentales centrados en ocupaciones específicas como escritores, programadores y agentes de atención al cliente, que revelan grandes aumentos de productividad asociados con el uso de la GenAI.
Asimismo, menciona mayores beneficios dentro de estas ocupaciones, en especial en los trabajadores con niveles relativamente más bajos de habilidades y experiencia. Esto explica por qué los ejecutivos están favoreciendo cada vez más las habilidades vinculadas con el uso de IA por encima de la experiencia laboral tradicional.
El artículo habla también de la brecha digital y los riesgos de la automatización, ya que, el primer desafío es justamente que los empleos que se pueden beneficiar usando GenAI, son más bien inusuales en los países en desarrollo.
Señala a la vez un documento reciente de la Organización Internacional del Trabajo (OIT) y el BM, de que solo entre el 7 % y el 14 % de los trabajadores de América Latina y el Caribe (ALC) pueden beneficiarse del uso de la GenAI delegando tareas en esta tecnología. Ese decir, generalmente son empleos típicos de la clase media.
Otros dos desafíos que limitan aún más el alcance de la GenAI son, por un lado, el acceso a las tecnologías digitales como computadoras, internet de alta velocidad y smartphones, necesarias para utilizar estas herramientas.
Por otro lado, entre el 1 % y el 6 % de los trabajadores en los países de ALC enfrentan un alto riesgo de automatización y pérdida de puestos de trabajo debido al uso de GenAI. Los sectores más expuestos a estos riesgos son la banca y las finanzas, el sector público y los servicios de atención al cliente.
Dejanos tu comentario
Estudio sugiere que uso de IA hace menos críticos a los estudiantes
Cuando Jocelyn Leitzinger pidió a sus estudiantes que contaran una anécdota personal sobre la discriminación, se dio cuenta de que la víctima solía llamarse Sally. “Estaba claro que era un nombre femenino habitual para ChatGPT”, lamenta esta profesora de Chicago. Sus estudiantes “ni siquiera escribían sobre sus propias vidas”, afirma Leitzinger, que imparte clases de negocios y sociedad en la Universidad de Illinois.
La profesora calcula que alrededor de la mitad de sus 180 alumnos utilizaron ChatGPT de forma inadecuada el semestre pasado, incluso al escribir sobre las cuestiones éticas que rodean a la inteligencia artificial (IA)... Y explica a AFP que no le sorprenden los resultados de una investigación reciente, que sugiere que los estudiantes que utilizan IA generativa para escribir sus trabajos son menos críticos.
El estudio preliminar, que aún no ha sido revisado por pares, se hizo viral en redes sociales, resonando claramente entre muchos docentes que se enfrentan a estas prácticas. Desde su publicación el mes pasado, más de 3.000 profesores han escrito al equipo de investigadores del MIT que lo llevó a cabo, según declaró a AFP su autora principal, Nataliya Kosmyna.
Lea más: Cristina Kirchner pide permiso para que Lula la visite en su prisión domiciliaria
Para este estudio, 54 estudiantes de la zona de Boston fueron divididos en tres grupos. Tenían que escribir redacciones de 20 minutos, el primero utilizando ChatGPT, el segundo un motor de búsqueda y el tercero solo sus sesos.
Los investigadores midieron la actividad cerebral de los estudiantes durante sesiones espaciadas varios meses y dos profesores calificaron sus textos.
Los usuarios de ChatGPT tuvieron resultados significativamente peores que los que utilizaron únicamente la cabeza. Los electroencefalogramas mostraron que distintas regiones de sus cerebros se conectaban entre sí con menos frecuencia.
Además, más del 80% de los usuarios de la IA no podían citar ningún fragmento de la redacción que acababan de escribir, frente al 10% de cada uno de los otros dos grupos. Al final de la tercera sesión, parecían limitarse principalmente a copiar y pegar.
Lea también: EE. UU. pone fin a la Usaid y transfiere sus funciones al Departamento de Estado
Textos sin alma
Por su parte, los profesores encargados de corregir sus textos declararon que eran capaces de reconocer fácilmente aquellos “sin alma”, escritos gracia a la IA. Aunque la gramática y la estructura eran correctas, les faltaba creatividad, personalidad y una reflexión profunda.
Kosmyna matiza no obstante las interpretaciones del estudio que hicieron algunos medios, según las cuales la IA vuelve estúpidas o más perezosas a las personas.
Durante la cuarta sesión, el grupo que hasta entonces solo había utilizado su cerebro fue invitado a utilizar ChatGPT por primera vez... y mostró un nivel de conectividad neuronal aún mayor, señala.
Es demasiado pronto para sacar conclusiones de una muestra tan pequeña, según la investigadora, que reclama más estudios sobre cómo utilizar mejor las herramientas de IA para facilitar el aprendizaje.
Ashley Juavinett, neurocientífica en la Universidad de California San Diego, que no participó en el estudio, también critica algunas de las “extrapolaciones” que se hicieron a partir del estudio.
“Este artículo no aporta suficientes pruebas ni rigor metodológico para sacar conclusiones sobre el impacto de los grandes modelos lingüísticos [como ChatGPT] sobre el cerebro”, declara a AFP.
Para Leitzinger, sin embargo, estos resultados coinciden con su percepción de cómo ha cambiado la escritura de sus alumnos desde la llegada de ChatGPT en 2022, con menos faltas de ortografía, pero también menos autenticidad.
La llegada de la inteligencia artificial se compara a menudo con la introducción de las calculadoras, que obligó a los profesores a cambiar sus métodos. Leitzinger teme que los alumnos ya no necesiten conocimientos básicos antes de utilizar la IA, saltándose la etapa esencial del aprendizaje. “Escribir es pensar; pensar es escribir. Si eliminamos este proceso, ¿qué queda del pensamiento?”, se pregunta.
Fuente: AFP.
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.
Dejanos tu comentario
Team calor vs. Team frío: la IA reveló cuál es mejor
Con la llegada del invierno, un acalorado debate surgió, entre las personas del Team verano y Team invierno: ¿qué clima es mejor? Para responder, con enfoque más “objetivo” se le consultó a una inteligencia artificial (IA) este dilema, teniendo en cuenta factores como salud, rendimiento físico, confort e incluso el impacto económico que ocurren en invierno y verano.
En material compartido por C5N de Argentina, se indicó que para la IA el clima frío tiene sus ventajas: como un mejor descanso, mayor concentración y mejores condiciones para realizar actividad física. La IA dictamina, el frío ayuda a conciliar el sueño profundo.
El cuerpo regula mejor su temperatura en entornos fríos. Las bajas temperaturas también favorecen la concentración; al contrario, el calor puede causar fatiga, hasta agitación. El frío incluso favorece el ejercicio físico.
Te puede interesar: ¡Bad Bunny prohíbe que los menores de edad entren solos a sus conciertos!
¿La razón? El frío minimiza el riesgo de deshidratación, y el agotamiento, una ventaja. La desventaja del frío, según la IA, es que puede causar resfríos, pero el calor extremo también representa riesgos para salud con golpes de calor y problemas respiratorios.
Concluyendo, el análisis de la inteligencia artificial destacó que el calor implica un uso más intenso de energía, por la necesidad de aires acondicionados y ventiladores. Para la IA, el frío es la opción más óptima para el bienestar en general.
Beneficios del frío:
- Un mejor descanso se ofrece. El cuerpo ajusta su temperatura óptimamente en lugares frescos, optimizando el sueño.
- Concentración y productividad incrementadas.
- Mejor desempeño físico también.
- Gasto energético reducido
Leé también: ¡Así fue la boda religiosa de Julio Enciso en Colombia!