O tratamento da OpenAI com as informações do atirador Tumbler Ridge abre questões regulatórias

O tratamento da OpenAI com as informações do atirador Tumbler Ridge abre questões regulatórias

O escrutínio sobre como a OpenAI tratou as informações sobre o Tumbler Ridge, BC, atirador em massa meses antes da tragédia mortal oferecer uma oportunidade para o Canadá considerar a regulamentação inteligência artificial empresas informem a polícia em cenários semelhantes, dizem os especialistas.

A empresa por trás do ChatGPT confirmou na semana passada que identificou e baniu “proativamente” uma conta associada a Jesse Van Rootselaar em junho de 2025 por uso indevido do chatbot de IA “para promover atividades violentas”.

No entanto, não informou a polícia naquela altura porque a actividade não atendia ao limite interno mais elevado de uma ameaça “iminente”.

A OpenAI finalmente contatou a RCMP depois que a polícia disse que Van Rootselaar, de 18 anos, matou oito pessoas e feriu outras 25 em 10 de fevereiro, antes de tirar a própria vida.

O ministro de Inteligência Artificial, Evan Solomon, convocou representantes a Ottawa na terça-feira para discutir a situação e as práticas de segurança da empresa.

A história continua abaixo do anúncio

Solomon disse aos repórteres na terça-feira, antes da reunião, que “todas as opções estão em jogo quando se trata de entender o que podemos fazer com os chatbots de IA”.

O Ministro do Patrimônio, Marc Miller, cujo ministério está trabalhando com o Solomon’s para desenvolver legislação de segurança online que abrangeria plataformas de IA, disse que o governo está dedicando tempo para acertar esse projeto de lei e não o vincularia ao que aconteceu em Tumbler Ridge.

“Acho que é necessário ter legislação para garantir que as plataformas se comportem de forma responsável”, disse ele. “O que parece ainda está para ser determinado, e não posso discutir prazos com você sobre isso.

“Penso que nesta situação existe uma sede legítima de respostas mais fáceis, mas não creio que existam respostas fáceis neste caso, especialmente com uma investigação aberta. Mas… precisamos de respostas melhores do que as que obtivemos até agora.”


Preocupações com IA após tiroteio em Tumbler Ridge

A legislação de privacidade do Canadá diz que as empresas privadas “podem” – e não devem – divulgar informações pessoais às autoridades ou a outra organização se acreditarem que existe um risco de danos significativos ou que uma lei será violada.

A história continua abaixo do anúncio

Qualquer outra tomada de decisão cabe à própria empresa, levando a limites internos como a identificação de ameaças “iminentes” da OpenAI.

“Este é mais um sinal de que existe um risco em permitir que a OpenAI e outros desenvolvedores de IA decidam por si próprios qual é uma estrutura de segurança apropriada”, disse Vincent Paquin, professor assistente de psiquiatria na Universidade McGill que pesquisa a relação entre tecnologias digitais e a saúde mental dos jovens.


“Em última análise, o ChatGPT é um produto comercial. Não é um dispositivo de cuidados de saúde aprovado. Por isso, é preocupante ver que há um número crescente de pessoas recorrendo ao ChatGPT e a outros produtos de IA para apoio à saúde mental e para discussões delicadas sobre coisas que acontecem em suas vidas, sem ter uma compreensão clara da segurança dessas interações e dos mecanismos de segurança existentes.”

Receba notícias nacionais diárias

Receba as principais notícias, manchetes políticas, econômicas e de assuntos atuais do dia, entregues em sua caixa de entrada uma vez por dia.

As revelações ocorrem no momento em que a OpenAI e outros fabricantes de chatbots de IA enfrentam vários processos judiciais nos EUA por alegações de que suas plataformas ajudaram a levar jovens ao suicídio e à automutilação.

A OpenAI nega essas alegações e afirma que suas avaliações de segurança recusar a maioria, senão todos, os pedidos de conteúdo prejudicial, como retórica e conselhos odiosos e violentos, incluindo ideação suicida.

The Wall Street Journal, que primeiro relatou o conhecimento prévio da OpenAI da atividade ChatGPT de Van Rootselaar, disse que suas postagens “descreviam cenários envolvendo violência armada ao longo de vários dias”, segundo pessoas familiarizadas com o assunto.

A história continua abaixo do anúncio

O relatório disse que os funcionários da empresa ficaram alarmados com as postagens e lutaram para decidir se deveriam alertar a polícia no verão passado, antes que a empresa optasse por não fazê-lo.

A Global News não verificou de forma independente os detalhes do relatório.

O governo do BC disse em comunicado no sábado que funcionários da OpenAI se reuniram com um representante do governo em 11 de fevereiro – um dia após o tiroteio – para “uma reunião agendada com semanas de antecedência” para discutir a possibilidade de abrir o primeiro escritório canadense da OpenAI.

“A OpenAI não informou a nenhum membro do governo que eles tinham evidências potenciais sobre os tiroteios em Tumbler Ridge”, disse o governo, mas observou que a OpenAI solicitou informações de contato da RCMP da província em 12 de fevereiro.


OpenAI convocado para Ottawa por causa do tiroteio em Tumbler Ridge

O comissário de privacidade do Canadá, Philippe Dufresne, disse anteriormente que não ter um escritório comercial canadense para contatar torna mais difícil para sua agência investigar empresas de tecnologia como a TikTok.

A história continua abaixo do anúncio

Brian McQuinn, professor associado da Universidade de Regina e codiretor do Centro de Inteligência Artificial, Dados e Conflitos, disse que a indústria de tecnologia em geral despriorizou a regulamentação interna de segurança desde que Elon Musk assumiu o Twitter em 2022, rebatizando-o como X.

“Basicamente (depois que ele) demitiu todas as equipes que faziam esse tipo de trabalho, as outras empresas (de mídia social) seguiram o exemplo e perceberam que poderiam escapar impunes também”, disse ele. “Portanto, menos despesas gerais com a equipe e menos dores de cabeça criadas por sua própria equipe ao informá-lo sobre as coisas.

“Se você não sabe, então não pode ser responsabilizado.”

O escritório de Dufresne lançou uma investigação sobre o xAI, de propriedade de Musk, e seu chatbot Grok, que está integrado à plataforma de mídia social X, sob alegações de que facilitou a disseminação de imagens falsas sexualizadas não consensuais de mulheres e crianças. Outras empresas e estados dos EUA estão conduzindo investigações semelhantes.

Musk criticou as investigações como tentativas de reprimir a liberdade de expressão.

Sharon Bauer, advogada de privacidade e estrategista de governança de IA baseada em Toronto, disse que é importante que qualquer legislação ou regulamentação futura encontre o “equilíbrio delicado” entre a privacidade individual e o dever de alertar sobre ameaças potenciais.

Ela disse que o termo “iminente” é fundamental.

“Esse é um limite realmente importante, porque qualquer valor inferior a esse limite significaria que eles estariam notificando as autoridades sobre coisas que podem acabar estigmatizando as pessoas ou criando falsos positivos, o que obviamente prejudicaria esses indivíduos”, disse ela.

A história continua abaixo do anúncio

Ao mesmo tempo, acrescentou Bauer, “qualquer valor demasiado elevado significaria perder ameaças genuínas, o que pode ter sido o caso nesta situação”.

“Espero que obtenhamos respostas sobre isso, se eles documentarem seu raciocínio sobre por que não contataram as autoridades, e isso será muito importante para analisar e descobrir se eles tomaram a decisão certa”, disse ela.


Novas perguntas sobre a tragédia de Tumbler Ridge

McQuinn disse que também quer ver dados sobre quem foi expulso do chatbot de IA e das plataformas de mídia social por ameaçar prejudicar a si mesmo ou a outros, e se houve algum acompanhamento no mundo real sobre esses indivíduos.

“Se a resposta for não, então eles estão apenas enterrando a cabeça na areia”, disse ele.

“Essas empresas valem trilhões de dólares, então a quantidade de dinheiro que gastam em qualquer coisa relacionada a pessoal e segurança é insignificante.”

A história continua abaixo do anúncio

Ele acrescentou que a próxima estratégia de IA do Canadá precisa combinar benefícios econômicos e estratégias de adoção com protocolos de segurança robustos que respondam a essas questões críticas.

Paquin citou uma lei recente da Califórnia, que exige que grandes empresas de IA como a OpenAI relatem ao estado quaisquer casos de suas plataformas sendo usadas para atividades potencialmente “catastróficas”, como algo que o Canadá deveria seguir como modelo para sua própria regulamentação potencial.

No entanto, essa lei define um risco catastrófico como algo que causaria pelo menos mil milhões de dólares em danos ou mais de 50 feridos ou mortes.

A lei foi elogiada por algumas empresas de IA, como a Anthropic, por equilibrar a segurança pública com a permissão da “inovação” contínua.

“Devíamos pedir mais transparência e também pensar numa forma de ter uma supervisão externa sobre essas atividades, porque não podemos permitir que os criadores de IA sejam os seus próprios juízes, os juízes da sua própria segurança”, disse Paquin.

—com arquivos de Touria Izri da Global

Share this post

Post Comment