Inteligencia Artificial bajo escrutinio
La empresa OpenAI, creadora de ChatGPT, se encuentra en el ojo del huracán tras admitir errores en la gestión de información sobre una usuaria involucrada en un tiroteo masivo en Canadá. Las autoridades de Florida también han iniciado una investigación para determinar la posible responsabilidad de la inteligencia artificial en otro ataque perpetrado en una universidad estadounidense.
OpenAI, la compañía detrás del popular modelo de lenguaje ChatGPT, ha emitido una disculpa pública por no haber alertado a las autoridades policiales sobre el comportamiento de una usuaria identificada por su interés en "actividades violentas". En febrero, esta persona perpetró un trágico ataque en Canadá, asesinando a dos miembros de su familia antes de llevar a cabo un tiroteo masivo en una escuela. La omisión de la compañía ha desatado una ola de críticas y cuestionamientos sobre la supervisión y responsabilidad de las empresas de inteligencia artificial en la prevención de actos criminales.
Adicionalmente, la Fiscalía General de Florida anunció esta semana el inicio de una investigación exhaustiva para determinar si ChatGPT tuvo algún grado de responsabilidad en un ataque ocurrido en una universidad de Estados Unidos. Aunque los detalles específicos del incidente no han sido revelados, la investigación se centrará en analizar si la inteligencia artificial fue utilizada para planificar, instigar o facilitar el ataque. Este caso marca un precedente importante en la búsqueda de establecer límites y responsabilidades para las empresas tecnológicas en relación con el uso de sus herramientas.
Estos incidentes han reavivado el debate sobre la necesidad de una regulación más estricta en el desarrollo y la implementación de la inteligencia artificial. Expertos en ética y tecnología han advertido sobre los riesgos potenciales del uso indebido de estas herramientas, incluyendo la posibilidad de que sean utilizadas para fines ilícitos o violentos. La creciente preocupación pública ha llevado a legisladores de diversos países a considerar la creación de marcos legales que permitan controlar y supervisar el desarrollo y el uso de la inteligencia artificial, garantizando así la seguridad y el bienestar de la sociedad.



