Víctimas del tiroteo en Canadá demandan a ChatGPT por omisiones

Familias de las víctimas acusan a OpenAI de no alertar a las autoridades, pese a detectar posibles señales de violencia en la atacante.

 

Columbia Británica, Canadá (Marcrix Noticias).-Víctimas del tiroteo en Canadá y sus familiares demandaron a la empresa OpenAI, propietaria de ChatGPT por no haber alertado a las autoridades pese a detectar conductas de riesgo.

Uno de los procesos fue interpuesto en un tribunal federal en San Francisco por una menor de 12 años que resultó herida durante el ataque y permanece hospitalizada, junto con su madre. Otra acción legal fue promovida por la madre de una de las víctimas mortales.

De acuerdo con las denuncias, OpenAI habría identificado que Jesse Van Rootselaar, señalada como autora del ataque, utilizó ChatGPT mientras planeaba el hecho. Sin embargo, la empresa no notificó a las autoridades.

“ChatGPT desempeñó un papel en el tiroteo masivo y OpenAI pudo, y debió, haberlo evitado”, señalan las demandas.

Los documentos también sostienen que la compañía evitó reportar casos para no recurrir constantemente a la policía ante posibles amenazas detectadas.

OpenAI respondió en un comunicado que mantiene una política de tolerancia cero ante el uso de sus herramientas para actos violentos y aseguró haber reforzado sus medidas de seguridad tras el incidente.

 

Antecedentes del ataque en Columbia Británica

 

El tiroteo ocurrió el 10 de febrero en una escuela secundaria de Tumbler Ridge, en Columbia Británica, donde murieron ocho personas, entre ellas familiares de la atacante y estudiantes. Más de dos decenas de personas resultaron heridas.

Tras el ataque, la empresa confirmó que había bloqueado previamente la cuenta de la sospechosa por mensajes con contenido potencialmente violento, pero no notificó a las autoridades. Posteriormente, indicó que la agresora creó una segunda cuenta que no fue detectada a tiempo.

El director ejecutivo de OpenAI, Sam Altman, expresó en una carta dirigida a la comunidad sus condolencias y reconoció que la empresa no alertó a las fuerzas de seguridad en ese momento.

Desde 2024, se han presentado múltiples demandas contra desarrolladores de inteligencia artificial por presuntos daños asociados al uso de chatbots, en medio de un debate creciente sobre la regulación de estas tecnologías.

Leave a Reply

Your email address will not be published. Required fields are marked *

No puedes copiar el contenido de esta página