ChatGPT, Gemini y Copilot están jaque por respuestas falsas a favor de Rusia

¿Por qué la IA entregaría esta información?
La IA estaría de acuerdo con Joseph Goebbels: “Una mentira repetida 1,000 veces se convierte en una verdad”.
Que estas herramientas tecnológicas entreguen resultados erróneos no es casualidad, es una de las formas en las que se puede presentar un sesgo de la IA, en este caso ocurre cuando los datos con los que se entrena un modelo no son imparciales o limitados.
De acuerdo con IBM, el también denominado sesgo de aprendizaje, se refiere a la aparición de resultados parciales debido a sesgos humanos que distorsionan los datos de entrenamiento o el algoritmo de la IA, lo que provoca resultados distorsionados y potencialmente perjudiciales.
Herramientas de IA como Copilot, MetaAI o Gemini obtienen su información de diversas fuentes, entre ellas datos públicos en línea, por lo que existe un alto riesgo de que repliquen información errónea si se repite suficientes veces como para que luzca real.
Las predicciones sobre escenarios en los que la IA entregue datos falsos o influenciados no son nuevas, en 2022 Gertner, empresa de consultoría tecnológica, predijo que 85% de los proyectos de inteligencia artificial generarían resultados erróneos producidos por sesgos en los datos.
DERECHOS DE AUTOR
Esta información pertenece a su autor original y se encuentra en el sitio https://expansion.mx/tecnologia/2025/03/11/chatgpt-gemini-copilot-en-jaque-respuestas-falsas-favor-rusia