Unión Europea busca prohibir la Inteligencia Artificial

Clasificarán estos sistemas en cuatro categorías de acuerdo a su nivel de riesgo

Compartir en:

El Universal,  Ciudad de México, Mexico, 

En los últimos años se ha acelerado el desarrollo de la Inteligencia Artificial (IA). Ya se han realizado diversas pruebas y estudios que han comprobado su efectividad en diversas áreas. Hoy se aplica para cuidar el medio ambiente, hacer diagnósticos médicos y predecir escenarios. Sin embargo, la Unión Europea considera que representa altos riesgos por lo que está evaluando una legislación que prohibiría su uso en algunos escenarios.

El tema del uso de la IA ha generado debate en todo el mundo. Muchos gobiernos están debatiendo los alcances y buscando una regulación adecuada para esta tecnología. Pero la Unión Europea destaca porque está planeando una legislación única en su tipo que pondría límites estrictos a estos sistemas. 

La Comisión Europea, la rama ejecutiva del organismo, dio a conocer que trabaja en un enfoque regulatorio de cuatro niveles que agrupa el software de IA en categorías de riesgo separadas y aplica un nivel diferente de regulación a cada una.

Riesgo inaceptable

En la parte superior estarían los sistemas que plantean un riesgo "inaceptable" para los derechos y la seguridad de las personas. La UE prohibiría rotundamente este tipo de algoritmos en virtud de la legislación propuesta por la Comisión. Un ejemplo de software que entraría en esta categoría es cualquier IA que permita a gobiernos y empresas implementar sistemas de puntuación social.

Riesgo alto

Debajo hay una categoría para las llamadas IA de alto riesgo. Esta sección es la más amplia en términos de variedad de software incluido y límites propuestos. La Comisión dice que estos sistemas estarán sujetos a una regulación estricta que abarcará todo, desde el conjunto de datos utilizado para capacitarlos hasta lo que constituye un nivel apropiado de supervisión humana y cómo transmiten información al usuario final, entre otras cosas.

En dicha categoría se incluyen las IA relacionadas con la aplicación de la ley y todas las formas de identificación biométrica remota. Señala por ejemplo que no se permitiría a la policía utilizar el reconocimiento facial en espacios públicos, aunque la UE establecería algunas excepciones por motivos de seguridad nacional y similares.

Riesgo limitado

Luego hay una categoría para IA de riesgo limitado como chatbots. La legislación requerirá que estos programas revelen a los usuarios cuando están hablando con una IA y no con un humano para que puedan tomar una decisión informada sobre si desea continuar usándolos o no. 

Riesgo mínimo

Por último, hay una sección para programas que presentan un riesgo mínimo para las personas. La Comisión dice que la "gran" mayoría de los sistemas de inteligencia artificial se incluirán en esta categoría. Los sistemas que se mencionan en esta sección contemplan sistemas como filtros de correo no deseado. Y, en este caso, los legisladores no planea imponer regulaciones.

A la vanguardia

Al respecto de esta propuesta el comisionado de Mercado Interior, Thierry Breton, señaló en un comunicado: "La IA es un medio, no un fin. Las propuestas tienen como objetivo fortalecer la posición de Europa como un centro global de excelencia en IA desde el laboratorio hasta el mercado, garantizar que la tecnología respete nuestros valores y reglas, y aprovechar el potencial de la IA para uso industrial".

Si bien es probable que la UE tarde años en debatir e implementar la legislación, podría hacer que las empresas enfrenten multas de hasta el 6% de sus ventas globales por infringir las reglas. Habrá que esperar para ver si se aprueba y cómo, pero valea pena decir que la UE ya tiene algunas de las políticas de privacidad de datos más estrictas del mundo, la GDPR y está considerando medidas similares cuando se trata de moderación de contenido y leyes antimonopolio.





Artistas como Billie Eilish y Stevie Wonder se oponen al uso de IA en la música

Compartir en:

Cadena Noticias,  Ciudad de México, Mexico, 

Más de 200 artistas de renombre mundial, entre ellos Billie Eilish, Stevie Wonder, Bon Jovi y Katy Perry, han alzado su voz en contra del uso de la Inteligencia Artificial (IA) en la música. En un documento publicado recientemente bajo el nombre de Artist Rights Alliance, los artistas hacen un llamado a los desarrolladores, empresas de tecnología y plataformas digitales para que cesen el uso de IA que infringe los derechos de los artistas humanos y socava su creatividad.

El texto señala que si bien la IA tiene un gran potencial para promover la creatividad humana, su uso irresponsable representa una amenaza para los artistas. Acusan a algunas plataformas y desarrolladores de utilizar la IA para reemplazar el trabajo de artistas humanos, diluyendo los fondos de regalías que reciben. Esta práctica, advierten, sería catastrófica para muchos músicos y compositores que dependen de esos ingresos para subsistir.

Los artistas argumentan que la IA está siendo utilizada para robar voces e imágenes de artistas profesionales, violando así los derechos de los creadores y destruyendo el ecosistema musical. Por ello, hacen un llamado a la industria para que se comprometa a no desarrollar ni implementar tecnologías que reemplacen a los artistas y compositores.

La lista de firmantes incluye a una amplia gama de artistas como:

  • R.E.M
  • Greta Van Fleet
  • Imagine Dragons
  • Nicki Minaj 
  • Banda el Recodo
  • J Balvin
  • Pearl Jam, entre otros más. 


Visita y accede a todo nuestro contenido | www.cadenanoticias.com | Twitter: @cadena_noticias | Facebook: @cadenanoticiasmx | Instagram: @cadenanoticiasmx | TikTok: @CadenaNoticias | Whatsapp: @CadenaNoticias |



OpenAI lanza Sora: modelo de IA para crear videos 'realistas e imaginativos'

Compartir en:

Cadena Noticias,  Mexico, Baja California, Tijuana, 

OpenAI ha presentado Sora, su último modelo de inteligencia artificial, diseñado para crear videos "realistas e imaginativos" de hasta 60 segundos. Sora opera a partir de indicaciones de texto, permitiendo a los usuarios generar videos con múltiples personajes, movimientos específicos y detalles precisos tanto en sujetos como en fondos.

La compañía afirma que Sora tiene un profundo conocimiento del lenguaje, lo que le permite interpretar indicaciones con precisión y generar personajes expresivos. OpenAI ha compartido ejemplos de videos generados por Sora que exhiben un alto grado de realismo y precisión.

Sin embargo, se señala que el modelo tiene limitaciones, como dificultades para simular con precisión la física de escenas complejas y la posibilidad de no comprender adecuadamente ciertas descripciones de eventos a lo largo del tiempo.

OpenAI ha implementado medidas de seguridad, incluyendo la colaboración con "miembros del equipo rojo" para evaluar áreas críticas del modelo y la creación de herramientas para detectar contenido engañoso generado por Sora. Está destinado a ser utilizado por artistas visuales, diseñadores y cineastas, quienes brindarán retroalimentación para mejorar el modelo y hacerlo más útil para profesionales creativos.

Visita y accede a todo nuestro contenido | www.cadenanoticias.com | Twitter: @cadena_noticias | Facebook: @cadenanoticiasmx | Instagram: @cadenanoticiasmx | TikTok: @CadenaNoticias | Whatsapp: @CadenaNoticias |



Qué medidas están tomando las casas de apuestas para generar confianza en la IA

Compartir en:

Cadena Noticias,  Ciudad de México, Mexico, 

A pesar de los beneficios que ha traído la adopción de la IA en las casas de apuestas (una mayor eficiencia, experiencias personalizadas y mejores probabilidades, entre otros), aún hay varios jugadores que se muestran muy escépticos y desconfiados de su uso. Los alegatos son variados, pero principalmente la desconfianza se centra sobre todo en una supuesta falta de equidad en los juegos sobre se emplea, dudas en su transparencia y preocupación en relación con la privacidad, dada la gran cantidad de datos que puede gestionar en segundos.

Sin embargo, las diferentes plataformas de casinos y apuestas en línea están abordando, de forma activa, estas preocupaciones a fin de trabajar en soluciones que permitan infundir confianza en la IA. Conozcamos algunas de ellas.

Preocupaciones y medidas que se están tomando sobre el uso de la IA en las plataformas de apuestas online


Transparencia y equidad

Una de las principales preocupaciones de los usuarios sobre el uso de la IA en las casas de apuestas es la supuesta falta de transparencia y equidad. Este temor radica en que los algoritmos de inteligencia artificial pudieran manipularse y así favorecer a la casa, lo que obviamente generaría resultados injustos para los apostadores. Para abordar esta preocupación, la casa de apuestas está trabajando de forma activa y constante en la implementación de sistemas de IA transparentes.

Para lograr esta meta, los operadores desarrollan modelos de IA explicables que brindan información clara sobre el proceso de toma de decisiones, permitiendo a los usuarios comprender cómo los algoritmos de IA pueden efectuar analíticas predictivas con un alto grado de acierto.

Privacidad y seguridad de datos

Otra de las preocupaciones más comunes en los usuarios escépticos con la IA en las casas de apuestas es el tema de la privacidad y seguridad de los datos. Como es sabido, los algoritmos de IA dependen en gran medida de grandes cantidades de datos de los usuarios para realizar predicciones precisas. Si bien, estos datos suelen ser tratados de manera confidencial y en un entorno totalmente cifrado, existe la posibilidad también de que esta información delicada se corrompa o peor aún, caiga en manos equivocadas.

Para mitigar en lo posible estos escenarios catastróficos, las principales plataformas de apuestas están tomando medidas para garantizar la protección de datos de los jugadores. Una de estas medidas consiste en la implementación de técnicas avanzadas de cifrado con el objetivo de salvaguardar la información de los usuarios. Con ello también se establecen estrictos controles de acceso y se cumple así con la normativa de protección de datos. Además, las casas de apuestas están colaborando de manera continua con expertos en ciberseguridad para realizar auditorías periódicas y evaluaciones de vulnerabilidad para identificar y mitigar riesgos potenciales.

Juego responsable

Los sistemas de apuestas impulsados por inteligencia artificial han generado preocupación sobre las prácticas de juego responsable. A algunos jugadores les preocupa que los algoritmos de IA puedan explotar a personas vulnerables al dirigirles promociones personalizadas o fomentar un comportamiento de juego excesivo. Para solucionar esto y brindar tranquilidad, las casas de apuestas están incorporando funciones de juego responsable en sus sistemas de inteligencia artificial.

Esto significa la implementación de algoritmos de inteligencia artificial que pueden detectar, tempranamente, signos de problemas con el juego, como cambios repentinos en los patrones de apuestas o pérdidas excesivas. Una vez que se detecte este tipo de situaciones, el sistema de IA es capaz de proporcionar ayudas oportunas, como mensajes informativos que promuevan conductas de juego responsable u ofrezcan opciones de autoexclusión.

Además, también está el hecho de que las casas de apuestas cooperan activamente con organizaciones especializadas en la prevención de la adicción al juego a fin de desarrollar marcos integrales conjuntos de juego responsable.

Sesgo y discriminación

El potencial de sesgo y la discriminación en los algoritmos de IAutilizados por las casas de apuestas es otra de las principales preocupaciones en varios jugadores. La desconfianza se genera ante la duda de cómo los operadores entrenan a estos algoritmos de IA. Es sabido que, si los algoritmos de IA se entrenan con datos sesgados, estos pueden desencadenar prácticas discriminatorias, lo que lleva a un trato injusto en ciertos individuos o grupos de personas.

Por esta razón, Las diferentes plataformas de apuestas están trabajando para abordar esta preocupación mediante la implementación de rigurosos procesos de investigación en cuanto al procesamiento de datos. De esta forma se asegura que los algoritmos de IA estén libres de sesgos prejuiciosos. Además, también se llevan a cabo numerosos seguimientos y auditorías continuas en los sistemas de IA para identificar y rectificar cualquier posible sesgo que pueda surgir en el tiempo.

El enorme potencial de la IA en las casas de apuestas

Si bien las principales preocupaciones de varios usuarios con relación a la utilización de la IA en las casas de apuestas son válidas, no cabe la menor duda de que esta tecnología emergente tiene un inmenso potencial para mejorar la experiencia de juego: recomendaciones personalizadas, mejoras en la atención al cliente, procesos automatizados en las transacciones, etc.


Visita y accede a todo nuestro contenido | www.cadenanoticias.com | Twitter: @cadena_noticias | Facebook: @cadenanoticiasmx | Instagram: @cadenanoticiasmx | TikTok: @CadenaNoticias | Whatsapp: @CadenaNoticias |



Condenan la creación con IA de imágenes sexuales de Taylor Swift

Compartir en:

EFE,  Ciudad de México, Mexico, 

El sindicato de actores de EE.UU. (SAG-AFTRA, en inglés) calificó de "perturbadoras, dañinas y profundamente preocupantes" las fotografías sexuales de Taylor Swift generadas por inteligencia artificial (IA) que circularon en internet esta semana.

"El desarrollo y la difusión de imágenes falsas -especialmente las de naturaleza lasciva- sin el consentimiento de alguien debe ser ilegal", dicta el comunicado de la institución publicado este viernes en su página web.

En el escrito SAG-AFTRA también mostró su solidaridad hacia la cantante y con "las mujeres de todo el mundo" que son y han sido víctimas del robo de su intimidad y de "su derecho a la privacidad".

Imágenes pornográficas de la cantante de 'Karma' fueron difundidas estas semana principalmente en la red social X. Después de haber sido vistas por millones de usuarios, las fotografías fueron retiradas de la plataforma y varias cuentas fueron suspendidas por haber compartido el falso contenido explícito de la artista.

Esto generó que muchos seguidores de Swift, e internautas en general, expresaran su preocupación y descontento ante el acontecimiento e hicieran llamamientos a los legisladores para tomar medidas enérgicas contra las plataformas y las tecnologías que violentan de esta forma a las mujeres.

A esto también se sumó el sindicato de intérpretes, manifestando su apoyo al proyecto de ley que el demócrata Joe Morelle presentó el año pasado y que haría que compartir tales imágenes fuera un delito federal.

Hasta el momento ni la cantante ni sus representantes se han posicionado al respecto, pero el jueves el periódico británico Daily Mail publicó que una fuente cercana a la cantante aseguraba que Swift se encontraba "furiosa" y que estaba considerando tomar acciones legales al respecto.

Swift también vivió momentos angustiantes el pasado 20 y 23 de enero cuando un supuesto acosador fue detenido en dos ocasiones fuera de su casa en Nueva York.

De acuerdo con las declaraciones de una fuente policial obtenidas por la CNN, el hombre estaba de pie en la calle mirando fijamente al edificio de la cantante las dos veces que fue detenido por la misma situación y actualmente está detenido enfrentándose a múltiples cargos de acoso y hostigamiento.

Visita y accede a todo nuestro contenido | www.cadenanoticias.com | Twitter: @cadena_noticias | Facebook: @cadenanoticiasmx | Instagram: @cadenanoticiasmx | TikTok: @CadenaNoticias | Telegram: https://t.me/GrupoCadenaResumen |



La inteligencia artificial y su impacto negativo en las universidades

Compartir en:

Cadena Noticias - Ana Laura Wong,  Mexico, Baja California, Tijuana, 

Las herramientas de Inteligencia Artificial como el Chat GPT, son utilizadas en diversos ámbitos laborales como lo es la educación.

El Dr. Fernando León García, Rector del Sistema CETYS, mencionó que en el año 2023 ningún robot tomó el lugar de los maestros simplemente el chat gpt expandió su uso y en su impacto negativo se ha demostrado que en algunas instituciones educativas ha sido herramienta, lo que merma en la capacidad de discernir, de procesar, concluir, así como en su desarrollo en la capacidad de escribir del alumnado. 

"Se ha demostrado en algunas instituciones que le han entrado de lleno que uno puede tomar lo que es una herramienta ver las limitaciones que tiene y en el marco de esas limitaciones incorporarlo como parte del proceso", expresó 

Refirió que una de las limitantes del chat gpt no cita correctamente y en algunos casos de requerir un ensayo debe agregarse de donde fue citado el texto. 

"Hay que ver la ética en el uso de la inteligencia artificial, no es malo usarlo pero hay que ver qué limitaciones tiene y en el aspecto ético es fundamental", apuntó.

Visita y accede a todo nuestro contenido | www.cadenanoticias.com | Twitter: @cadena_noticias | Facebook: @cadenanoticiasmx | Instagram: @cadenanoticiasmx | TikTok: @CadenaNoticias | Whatsapp: @CadenaNoticias |