Conecte-se conosco

Redes Sociais

Deepfakes e desinformação digital impactam economia e setor segurador

Publicado

em

Uso de tecnologia de manipulação de áudio e vídeo coloca pressão sobre seguradoras, aumentando custos operacionais e riscos de fraude

A disseminação de deepfakes e desinformação digital nas redes sociais tem gerado impactos significativos no setor econômico e no mercado segurador , segundo relatórios recentes da Swiss Re , uma das maiores resseguradoras do mundo.

Além de representarem uma ameaça aos consumidores, essas tecnologias têm se tornado uma realidade para as próprias seguradoras , que enfrentam custos crescentes para identificar, prevenir e mitigar os riscos associados à manipulação de informações .

Fraudes mais sofisticadas em seguros

Deepfakes são cada vez mais usados para falsificar provas em sinistros , incluindo imagens alteradas e vídeos manipulados . No Reino Unido , já há um aumento expressivo de fraudes de baixo valor baseadas em evidências falsas , segundo dados apresentados no relatório Sonar 2025 .

Reputação e confiança em risco

Narrativas falsas sobre a saúde financeira de seguradoras , decisões regulatórias ou judiciais influenciadas por conteúdos enganosos podem afetar negativamente a imagem institucional e a confiança do mercado .

A exposição a campanhas de desinformação pode gerar reclamações em massa , perda de clientes e impacto financeiro direto .

Custos operacionais e exigências regulatórias crescem

As seguradoras enfrentam pressão crescente para investir em tecnologias de verificação digital , com o objetivo de identificar conteúdos falsos e reduzir a litigiosidade. Isso inclui:

Anúncio

  • Aquisição de sistemas de detecção de deepfakes
  • Integração com inteligência artificial
  • Aumento de equipes especializadas
  • Cumprimento de novas exigências regulatórias

Esses fatores aumentam a necessidade de seguros cibernéticos especializados , capazes de cobrir os danos decorrentes de ataques digitais e campanhas de desinformação.

Riscos às operações digitais e segurança corporativa

Já há registros de hackers usando deepfakes para fraudar processos seletivos e obter acesso a sistemas críticos de grandes empresas. Essa prática representa um novo tipo de ameaça à infraestrutura digital e ao funcionamento seguro de organizações .

Setores mais vulneráveis

Empresas de setores altamente dependentes de transações digitais e imagem pública são as mais expostas ao uso de deepfakes e desinformação. Entre os mais afetados estão:

  • Bancos
  • Fintechs e empresas de investimento
  • Mídia e telecomunicações
  • Tecnologia
  • Indústria farmacêutica

Esses segmentos enfrentam riscos como:

  • Perda de confiança do público
  • Danos à reputação corporativa
  • Queda na receita publicitária
  • Prejuízos financeiros diretos
Dados alarmantes sobre os impactos

Relatório global da Regula Forensic (2024) , que ouviu mais de 1.000 tomadores de decisão , revelou que:

  • Mais de 92% das empresas já sofreram prejuízos com deepfakes
  • 10% delas relataram perdas superiores a US$ 1 milhão

Dados do Wall Street Journal (abril de 2024) também apontam um aumento de 700% nos incidentes com deepfakes nas fintechs em 2023 , evidenciando o crescimento exponencial do problema.


Com informações: Swiss Re – Relatório Sonar 2025 

Continue lendo
Anúncio

Clique para comentar

Deixa uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Congresso Nacional

Câmara aprova PL contra adultização de crianças nas redes sociais

Publicado

em

Por

PL 2628/2022, aprovado pela Câmara, cria regras para proteger crianças e adolescentes de conteúdos impróprios na internet. Proposta prevê autoridade nacional autônoma, verificação de idade e remoção imediata de conteúdo criminoso. Texto retorna ao Senado

O plenário da Câmara dos Deputados aprovou, na noite desta quarta-feira (20/08), o Projeto de Lei 2628/2022, conhecido como PL contra a adultização de crianças nas redes sociais. A votação, simbólica, contou com apoio transversal e de centenas de organizações da sociedade civil que atuam na defesa da infância.

A proposta, de autoria do senador Alessandro Vieira (MDB-SE) e relatada na Câmara pelo deputado Jadyel Alencar (Republicanos-PI), estabelece um marco de proteção para crianças e adolescentes no ambiente digital. Como houve mudanças significativas em relação ao texto original aprovado pelo Senado, o projeto retorna àquela Casa para nova análise

Autoridade nacional autônoma para fiscalizar plataformas

Uma das principais novidades do substitutivo aprovado é a criação de uma autoridade nacional autônoma, no modelo da ANPD (Autoridade Nacional de Proteção de Dados), responsável por:

  • Regular e fiscalizar o cumprimento da lei;
  • Editar normas e procedimentos;
  • Aplicar sanções em caso de descumprimento.

A entidade será criada por lei específica e terá poder de fiscalização sobre plataformas digitais com acesso por crianças e adolescentes.

Obrigações para plataformas digitais

O texto, com 16 capítulos e 41 artigos, exige que plataformas adotem medidas “razoáveis e proporcionalmente eficazes” para prevenir o acesso de menores a conteúdos ilegais ou prejudiciais, como:

Anúncio

  • Exploração e abuso sexual;
  • Violência física e intimidação (cyberbullying);
  • Assédio e promoção de automutilação;
  • Jogos de azar e publicidade predatória.

As empresas deverão:

  • Implementar mecanismos confiáveis de verificação etária (fim da autodeclaração);
  • Garantir supervisão por pais e responsáveis;
  • Adotar filtros e sistemas de moderação adequados à faixa etária.

Remoção imediata de conteúdo criminoso

Pelo artigo 29 do projeto, plataformas deverão remover conteúdos ofensivos em até 24 horas após notificação feita por:

  • Vítima ou seus representantes;
  • Ministério Público;
  • Entidades de defesa da infância.

A medida é independente de ordem judicial e se aplica apenas a conteúdos com caráter criminoso, como pornografia infantil, exploração sexual e incentivo à automutilação.

Sanções para descumprimento

Empresas que descumprirem a lei poderão enfrentar penalidades como:

  • Advertência;
  • Multa de até R$ 50 milhões;
  • Suspensão temporária de atividades;
  • Proibição definitiva de operar no Brasil.

Proteção sem censura, segundo defensores

Deputados destacaram que o projeto não fere a liberdade de expressão.
“O PL protege a liberdade de expressão porque só permite remoção imediata de conteúdos criminosos, como exploração sexual e golpes. Opiniões, críticas e reportagens seguem protegidas”, afirmou a deputada Sâmia Bonfim (PSOL-SP).

Impacto do caso Felca

O debate ganhou força após o humorista Felipe Bressanim (Felca) publicar, em 9 de agosto, um vídeo denunciando o influenciador Hytalo Santos por promover a exposição sexualizada de menores. O vídeo, com quase 50 milhões de visualizações, mobilizou a sociedade e acelerou a tramitação do projeto.

“Hoje, as crianças do Brasil ganham. A Câmara mostrou que, quando queremos, colocamos as divergências de lado e protegemos uma geração inteira”, disse o deputado Otoni de Paula (MDB-RJ).

Anúncio

Próximos passos

O projeto segue agora para nova votação no Senado Federal. Se aprovado, vai à sanção presidencial.


Com informações: Agência Brasil

Continue lendo

Brasil

AGU aciona Meta por chatbots que promovem adultização infantil

Publicado

em

Por

Após denúncias de influenciador Felca, AGU notifica Meta para excluir em 72h chatbots com aparência infantil e conteúdo sexual. Plataformas como Instagram e WhatsApp são citadas por permitirem acesso de menores sem verificação etária

A Advocacia-Geral da União (AGU) enviou, nesta segunda-feira (18/08), uma notificação formal à Meta, empresa responsável pelo Instagram, Facebook e WhatsApp, exigindo a exclusão imediata de chatbots que simulam aparência infantil e mantêm diálogos com conteúdo sexual.

A empresa tem 72 horas para remover os robôs e informar quais medidas adota para impedir que crianças e adolescentes acessem conteúdos eróticos ou sexualmente sugestivos em suas plataformas.

Chatbots criados na Meta AI Studio promovem erotização infantil

Segundo a AGU, os robôs foram criados por meio da ferramenta Meta AI Studio, que permite a usuários desenvolverem assistentes de inteligência artificial personalizados. Alguns desses chatbots, no entanto, assumem identidades de crianças e adolescentes e engajam em conversas com teor sexual, configurando uma forma de erotização precoce e adultização infantil.

A AGU classificou a situação como gravíssima, destacando que esses conteúdos têm potencial de alcançar milhões de usuários jovens, especialmente em redes com grande penetração entre adolescentes.

Falta de controle etário nas plataformas

Anúncio

A notificação ressalta que as plataformas da Meta são acessíveis a usuários a partir dos 13 anos, mas não há mecanismos eficazes de verificação etária para quem está entre 13 e 18 anos. Isso permite que menores sejam expostos a conteúdos impróprios, sem barreiras de proteção adequadas.

“Tais chatbots têm potencialidade de alcançar um público cada vez mais amplo, ampliando de forma exponencial o risco do contato de menores com material sexualmente sugestivo e potencialmente criminoso”, alerta o ofício.

Caso Felca e pressão por regulação

O caso ganhou destaque após o influenciador digital Felca denunciar perfis e robôs que promovem a adultização de crianças nas redes sociais. A repercussão do que ficou conhecido como “efeito Felca” intensificou o debate público e pressionou autoridades a agirem.

Nesta semana, a Câmara dos Deputados deve retomar a discussão sobre um projeto de lei (PL) que visa coibir a exposição de crianças e adolescentes a conteúdos que estimulem a adultização precoce nas plataformas digitais.

Meta ainda não se manifestou

Até a publicação desta matéria, a Agência Brasil havia solicitado posicionamento à Meta, mas não recebeu resposta.

A AGU reforça que a proteção de crianças e adolescentes é um dever do Estado e das empresas de tecnologia, em alinhamento com o Estatuto da Criança e do Adolescente (ECA) e normas internacionais de direitos humanos.

Anúncio


Com informações: Agência Brasil / Revista Fórum

Continue lendo

Blog

Veja quais crimes as redes sociais agora devem remover sozinhas

Publicado

em

Por

Decisão do STF obriga plataformas como Facebook, Instagram e X a derrubar conteúdos criminosos sem esperar ordem judicial

O Supremo Tribunal Federal (STF) decidiu na última quinta-feira (26) que redes sociais e outras plataformas digitais devem agir de forma mais ativa para proteger direitos dos usuários. Na prática, empresas como Facebook, Instagram, X e YouTube passam a ter mais responsabilidade pelo que é publicado, mesmo sem ordem judicial.

Até agora, o Marco Civil da Internet (Lei nº 12.965/2014) previa que as plataformas só poderiam ser responsabilizadas — como, por exemplo, serem obrigadas a pagar indenização — se desse causa e descumprissem uma ordem judicial específica para remover um conteúdo. Essa previsão está no artigo 19, que afirma:

“Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências… dentro do prazo assinalado…”

Mas, por maioria de votos, os ministros do STF entenderam que essa regra não é mais suficiente para proteger direitos fundamentais, como a democracia e a dignidade de vítimas de crimes online.

Crimes graves: redes precisam remover por conta própria

Pela nova decisão, as redes devem agir imediatamente para remover postagens relacionadas a crimes graves, mesmo sem ordem de um juiz. A lista inclui:

  • Tentativa de golpe de Estado ou ataque à democracia;
  • Terrorismo;
  • Incitação ao suicídio ou automutilação;
  • Racismo e homofobia;
  • Crimes contra mulheres, como incitação à violência de gênero;
  • Pornografia infantil ou crimes graves contra crianças;
  • Tráfico de pessoas.

Se não tirarem do ar, as plataformas podem ser processadas por falha sistêmica, ou seja, por não terem mecanismos eficazes para impedir a circulação desses crimes.

Crimes contra a honra seguem com regra antiga

Em casos de calúnia, injúria ou difamação, as redes continuam responsáveis apenas se ignorarem ordem judicial. Mas podem, se quiserem, remover o conteúdo com base em notificação extrajudicial, enviada antes do processo na Justiça.

Quando um fato ofensivo já tiver sido reconhecido como crime pela Justiça, todas as cópias e repostagens devem ser removidas por outras plataformas também — bastará uma nova notificação.

Anúncio

Outros crimes: aviso prévio também obriga a tirar do ar

Para outros tipos de crimes, como contas falsas e fraudes, a plataforma é obrigada a agir quando receber uma notificação extrajudicial. Se ignorar o pedido, pode ser responsabilizada por danos causados.

Mais regras de transparência

Além disso, as plataformas terão que ter canais permanentes de denúncia, publicar relatórios anuais mostrando como lidam com denúncias, anúncios pagos e conteúdos impulsionados.

O que ainda depende do Congresso

A decisão do STF vale até que o Congresso aprove uma lei mais detalhada sobre o tema. Para o ministro Nunes Marques, que ficou vencido, a responsabilidade deveria ser só de quem publica o conteúdo ilegal, não da plataforma — e o assunto deveria ser discutido pelo Parlamento.

Casos que motivaram a decisão

Dois casos ajudaram a definir essa nova regra:

  • Um perfil falso no Facebook, que gerou condenação por danos morais.
  • Uma comunidade ofensiva no extinto Orkut, que também virou disputa judicial com o Google.

Com a nova decisão, o STF quer equilibrar liberdade de expressão e proteção contra crimes na internet, deixando claro que as plataformas devem monitorar o que acontece dentro delas — principalmente quando se trata de conteúdo ilegal grave.


 

Fonte: Revista Fórum

Anúncio

Continue lendo
Anúncio


Em alta

Verified by MonsterInsights