Las alucinaciones de la IA ya influyen en los resultados de búsqueda de Google y pueden dar pie a una retroalimentación muy peligrosa

Los avances en inteligencia artificial, como el bot conversacional de OpenAI llamado ChatGPT o herramientas más relacionadas con el arte, como Midjourney, han permitido que la IA tenga un impacto significativo en la industria tecnológica actual. Millones de personas utilizan diariamente estas herramientas, lo que ha llevado a muchas empresas a aprovechar sus beneficios. Sin embargo, cada vez es más común una situación preocupante: las alucinaciones de la IA.

"Es 100 veces más inteligente y me cuesta la centésima parte". Sustituyó al 90% de su plantilla por una IA y ahora vaticina la desaparición del sector

Hace unas semanas, numerosos usuarios se quejaron de que Google, la gigante estadounidense, prioriza los resultados generados por IA sobre los creados por humanos. Aunque esto no es una noticia nueva, destaca una práctica que puede llevar a una situación aún peor. Actualmente, las herramientas basadas en IA utilizan información disponible en internet para producir redacciones, ilustraciones y diversas creaciones. Esto está generando un ciclo en el cual la IA alimenta a otras IA.

Las alucinaciones son un problema para la información precisa

Según un artículo de Techspot, esta situación es problemática para la información disponible en internet. Un investigador llamado Daniel S. Griffin, quien buscaba información falsa generada por la IA, descubrió que los chatbots tienen la capacidad de influir en otros. Esto ha llevado a que herramientas como Bing y Bard consideren alucinaciones como información verídica, posicionándolas en los primeros resultados de búsqueda. Como resultado, se atribuye a autores la autoría de artículos que nunca han escrito, lo que da relevancia a información falsa.

XEM THÊM  He esperado dos años para volver a jugar y ha sido increíble. El problema es que tras regresar a Battlefield 2042 solo puedo hacerme una pregunta - Battlefield 2042

Microsoft, una de las empresas señaladas, ha afirmado que está trabajando para corregir este error. Según Griffin, esta situación parece ocurrir más frecuentemente en temas donde hay poca información escrita por humanos en línea, ya que las IA tienden a llenar los vacíos con información inexacta o, en el peor de los casos, falsa. De cualquier manera, esto deja claro que las empresas tienen un problema por resolver, ya que la IA no puede distinguir entre información veraz y errónea.

Artículo relacionado: La IA de Facebook era una buena idea hasta que creó a Luigi con un rifle. Ahora, Meta debe buscar la forma de eliminar estos stickers ofensivos

Artículo relacionado: “Seguro que es un código de amor especial”. Un usuario demuestra una vez más por qué las abuelas fallecidas son el punto débil de la IA y cómo superarlo con un CAPTCHA

Imagen principal por Firmbee.com (Unsplash)

Xem thêm bài viết thuộc chuyên mục: JUEGOS

By devteam