
Proteção infantil online
Na Meta, a proteção infantil é sempre a maior prioridade.
Visão geral
Desenvolvemos uma abordagem líder no setor em três frentes para proteger os jovens online. Em primeiro lugar, nos concentramos em evitar que danos aconteçam. Fazemos isso aplicando políticas de tolerância zero e desenvolvendo ferramentas preventivas de ponta. Depois, facilitamos o relato de possíveis danos e respondemos para realizar ações. Além disso, sempre colaboramos com especialistas globais e parceiros do setor para atualizar nossas ferramentas que mantêm os jovens seguros.

Aprimorando o ecossistema de proteção infantil
Nosso trabalho para proteger crianças se estende à internet em geral. Reconhecemos o poder da colaboração entre setores para criar um ecossistema de segurança infantil.
Desde 2016, organizamos com frequência hackathons de segurança infantil com ONGs. Esses eventos focam em projetos de programação e prototipagem destinados a tornar a internet um lugar mais seguro para as crianças. Da mesma forma, nossas tecnologias de correspondência de fotos e vídeos são de código aberto desde 2019. Contribuindo com o setor de tecnologia com esse código, esperamos permitir que mais empresas mantenham seus serviços seguros. Em 2020, colaboramos com parceiros de todo o setor para estabelecer o Project Protect. Essa coalizão foi criada para proteger os jovens online e orientar o trabalho da Technology Coalition pelos próximos 15 anos.
Internamente, trabalhamos em estreita colaboração com nossos consultores de segurança, que incluem especialistas e ONGs de todo o mundo. Nossas iniciativas incluem desenvolver as boas práticas do setor, criar e compartilhar tecnologia para combater a exploração infantil online e oferecer serviços de apoio às vítimas.
Intervenções tecnológicas avançadas
Compreender como e por que as pessoas compartilham conteúdo de exploração é fundamental para combatê-lo. Conduzimos uma análise cuidadosa e aprofundada desse conteúdo para ser a base de informações da nossa pesquisa.
Usamos o que aprendemos com esses dados para implantar ferramentas e lançar novos programas destinados a reduzir o compartilhamento desse conteúdo terrível. Por exemplo, implantamos uma intervenção de pesquisa destinada a reduzir pesquisas de conteúdo mal-intencionadas.
No Instagram, testamos o uso de alertas AMBER para permitir que as pessoas vejam e compartilhem avisos de crianças desaparecidas em sua região. Desde 2015, os alertas AMBER no Facebook têm conseguido ajudar as autoridades a encontrar crianças desaparecidas.

Relatórios de responsabilidade e aplicação
Nos esforçamos para ser abertos e proativos na forma como protegemos a privacidade, a segurança e o acesso a informações online dos usuários. Nosso Relatório de Aplicação de Padrões da Comunidade trimestral inclui:
Material contra o abuso sexual infantil
Estamos constantemente atualizando e criando novas ferramentas de proteção infantil. Expandimos nosso trabalho para detectar e remover redes que violam nossas políticas e facilitamos a denúncia de conteúdo infrator. Confira alguns recursos do produto (não visíveis para o usuário):
Nossas políticas de segurança infantil indicam claramente o que é permitido no Facebook e no Instagram. As violações incluem o compartilhamento de imagens inocentes de crianças com legendas, hashtags ou comentários inapropriados.
Ajude a proteger as crianças
Não permitimos conteúdo que explore crianças sexualmente ou as coloque em perigo. No entanto, às vezes as pessoas publicam imagens e vídeos sexuais de crianças. Sabemos que compartilhar tal conteúdo, mesmo sem intenção maliciosa, expõe a criança novamente. Compartilhar esse conteúdo viola nossas políticas, independentemente da intenção.
Estamos trabalhando com especialistas em conscientização pública para lançar uma nova campanha de anúncios de serviço público que estimule as pessoas a parar e pensar antes de recompartilhar essas imagens online e que, em vez disso, as denunciem para nós.
Denunciar pode evitar que o conteúdo de assédio sexual infantil se espalhe e protege a criança.
Parceria entre setores para combater a divulgação de material contendo abuso sexual de crianças
O portal Take It Down, criado pelo NCMEC com apoio da Meta, é uma etapa que você pode seguir para remover da internet fotos e vídeos com nudez, nudez parcial ou conteúdo sexualmente explícito feitos antes de você ter 18 anos*.
O Take It Down funciona atribuindo uma impressão digital única (chamada de valor de hash) a imagens ou vídeos contendo nudez, nudez parcial ou conteúdo sexualmente explícito de pessoas com menos de 18 anos. As plataformas online participantes podem usar valores de hash para detectar e remover publicações dessas imagens ou vídeos nos próprios serviços. Isso tudo acontece sem que a imagem ou vídeo saia do seu dispositivo. Somente o valor de hash será carregado no Take It Down e fornecido ao NCMEC. Se alguém tentar publicar uma imagem correspondente em uma das plataformas de empresas participantes, a empresa analisará o conteúdo para conferir se ele viola alguma política e agirá de acordo com elas.
*Se você tiver uma imagem ou um vídeo íntimo que não quer que seja compartilhado e você tem mais de 18 anos, siga as etapas em StopNCII.org para evitar uma circulação maior do conteúdo.
Chega de extorsão sexual
A extorsão sexual é a ameaça de revelar imagens íntimas para fazer você realizar uma ação que não quer. Os recursos da central Chega de extorsão sexual ajudam aqueles que buscam apoio e informações.

Nossas políticas
Não permitimos conteúdo que explore crianças sexualmente ou as coloque em perigo. Ao tomar ciência de um caso aparente de exploração infantil, fazemos uma denúncia ao National Center for Missing and Exploited Children (Centro Nacional para Crianças Desaparecidas e Exploradas, ou NCMEC). O NCMEC trabalha com autoridades de aplicação da lei do mundo todo.
Também trabalhamos com especialistas externos para discutir e melhorar nossas políticas e monitoramento em relação a questões de segurança online.
As pessoas compartilham imagens de crianças nuas por vários motivos, inclusive por indignação ou humor de baixa qualidade. Sabemos que às vezes as pessoas compartilham imagens de seus próprios filhos nus com boas intenções. No entanto, geralmente removemos essas imagens devido ao potencial de abuso por outras pessoas. Isso ajuda a evitar a possibilidade de outras pessoas reutilizarem ou se apropriarem indevidamente das imagens.
Os Padrões da Comunidade explicam o que é ou não permitido no app. Nossas políticas sobre exploração infantil fazem parte dessas diretrizes e são ativamente aplicadas.