Skip to main content

Featured

Delegar permissões de Administrador no Microsoft Entra ID

Delegar permissões administrativas no Microsoft Entra ID é essencial para distribuir responsabilidades de forma segura e eficiente, sem comprometer a governança da organização. Essa prática evita a concentração de acessos privilegiados em poucas contas e reduz riscos de segurança, ao mesmo tempo em que melhora a rastreabilidade das ações administrativas. Acessando o portal do Microsoft Entra O primeiro passo é acessar o portal de administração do Microsoft Entra em https://entra.microsoft.com com uma conta que possua a função de Global Administrator , pois apenas esse perfil tem autorização para gerenciar funções administrativas. Navegando até as funções administrativas No menu lateral, selecione Identidade e depois clique em Funções e administradores . Nessa área, você encontrará uma lista com todas as funções disponíveis no Entra ID, como: Global Administrator User Administrator Groups Administrator Helpdesk Administrator Security Reader Compliance Administrat...

Shadow AI: o risco invisível dentro do Microsoft Teams e como preveni-lo


Com o avanço acelerado das soluções baseadas em Inteligência Artificial (IA), um novo desafio tem ganhado destaque entre os profissionais de TI e administradores do Microsoft 365: o uso não autorizado ou não controlado de IA por usuários finais, também conhecido como Shadow AI.

Esse fenômeno representa riscos reais para a segurança da informação, a privacidade dos dados e a conformidade regulatória das organizações. Entender o que é, como surge e como evitar esse tipo de ameaça é essencial para qualquer empresa que utiliza ferramentas como o Microsoft Teams no seu dia a dia.

O que é Shadow AI?

Shadow AI se refere ao uso de ferramentas de inteligência artificial fora do controle ou conhecimento da área de TI. Essas ferramentas são geralmente aplicativos de terceiros, muitas vezes integrados ao ambiente do Microsoft Teams, OneDrive ou SharePoint, sem aprovação formal da organização.

Essas soluções podem parecer inofensivas à primeira vista — como bots que resumem conversas, plugins de produtividade ou geradores de conteúdo — mas podem estar manipulando, transmitindo e armazenando dados corporativos em locais externos e inseguros, sem qualquer política de governança aplicada.

 

Por que a Shadow AI é perigosa?

A popularização da IA trouxe benefícios, mas também expôs brechas importantes. Veja os principais riscos associados ao uso descontrolado de IA em ambientes como o Microsoft Teams:

1. Uso de dados para "treinamento" por IA de terceiros

Alguns serviços de IA utilizam os dados inseridos pelos usuários para treinar seus próprios modelos. Isso significa que informações sensíveis podem ser absorvidas por algoritmos sem o conhecimento ou consentimento da empresa.

2. Armazenamento externo e desconhecido

Aplicativos de IA não homologados frequentemente utilizam servidores em nuvens públicas de outros países. Isso gera perda de controle sobre onde os dados estão sendo armazenados, o que pode violar políticas internas ou legislações de proteção de dados.

3. Quebra de compliance

Empresas de setores regulados (educação, saúde, finanças, etc.) podem violar normas internas e externas ao permitir o uso de Shadow AI, comprometendo auditorias e certificações.

4. Violação da LGPD e outras leis

De acordo com a Lei Geral de Proteção de Dados (LGPD) no Brasil e com o GDPR na Europa, o uso indevido ou o compartilhamento de dados pessoais sem base legal ou consentimento pode acarretar multas e sanções severas.

 

Como prevenir o uso de Shadow AI no Microsoft Teams

1. Mapeamento de aplicativos

Utilize o portal de administração do Microsoft 365 para auditar os aplicativos em uso. Identifique quais são de terceiros, quais estão conectados ao Teams e quem os está utilizando.

2. Bloqueio de apps não autorizados

Por meio das políticas do Microsoft Teams, é possível:

  • Restringir a instalação de aplicativos apenas aos homologados pela empresa.
  • Bloquear apps específicos com base em políticas de segurança e conformidade.
  • Permitir apenas apps verificados pela Microsoft.

3. Aprovação centralizada de aplicativos

Configure um fluxo de solicitação de aprovação para que, antes de um novo aplicativo de IA ser adicionado ao Teams, ele passe por uma análise de TI e segurança da informação.

4. Educação e conscientização

Usuários nem sempre têm conhecimento técnico para entender os riscos envolvidos. Realize campanhas internas para conscientizar colaboradores sobre o que é Shadow AI e os cuidados ao utilizar ferramentas baseadas em IA.

5. Uso de DLP e Microsoft Defender

  • Microsoft Purview (Data Loss Prevention): pode ser usado para detectar quando dados sensíveis estão sendo enviados a apps de terceiros.
  • Microsoft Defender for Cloud Apps: monitora e alerta sobre uso de Shadow IT e acesso não autorizado.

O uso de IA em ambientes corporativos é inevitável e, muitas vezes, benéfico. No entanto, o controle e a governança são fundamentais para garantir a segurança e a conformidade dos dados.

A Shadow AI não é apenas uma ameaça invisível, mas também um alerta claro para que as empresas adotem uma abordagem proativa na administração de seus ambientes Microsoft 365, especialmente no Teams.

Se sua organização ainda não implementou um plano de prevenção ao uso indevido de IA, o momento de agir é agora.

Para mais sobre Shadow IT: 
Descobrir e gerir o Shadow IT - Microsoft Defender for Cloud Apps | Microsoft Learn

Comments

Popular Posts