O uso de inteligências artificiais (IAs) tem se tornado uma prática comum para facilitar tarefas cotidianas. No entanto, é essencial compreender quais dados devem ser mantidos em sigilo ao interagir com essas ferramentas. As IAs são operadas por empresas que, apesar de adotarem medidas de segurança, não podem garantir a proteção completa contra vazamentos de dados. Assim, é crucial adotar uma postura cautelosa ao utilizar esses sistemas.
Compartilhar informações pessoais com IAs pode expor os usuários a riscos significativos. Criminosos podem se aproveitar desses dados para cometer fraudes ou roubo de identidade. Portanto, é importante estar ciente das informações que devem ser preservadas ao utilizar inteligências artificiais.
Quais dados pessoais devem ser protegidos?
Informações como nome completo, data de nascimento e números de documentos são extremamente sensíveis e devem ser mantidas em sigilo. Caso essas informações sejam comprometidas, podem ser usadas para atividades fraudulentas. Além disso, é aconselhável evitar o compartilhamento de números de telefone e endereços de e-mail com IAs, pois, mesmo que não sejam armazenados diretamente, ainda estão sujeitos a vazamentos.
Da mesma forma, logins e senhas de contas online não devem ser armazenados em inteligências artificiais. Essas informações devem ser mantidas em locais seguros, como gerenciadores de senhas, e nunca compartilhadas com indivíduos não confiáveis.
Como proteger informações profissionais e de propriedade intelectual?
Em muitos setores, as informações empresariais são altamente confidenciais. Portanto, é crucial não inserir dados ou discussões internas de trabalho em IAs como o ChatGPT. Dados relacionados à propriedade intelectual também devem ser protegidos, pois a divulgação não autorizada pode resultar em consequências legais.

Um exemplo ocorreu em 2023, quando um funcionário de uma grande empresa vazou acidentalmente informações sensíveis ao usar uma IA. Esse incidente destaca a importância de proteger dados empresariais ao interagir com inteligências artificiais.
Quais são os riscos de compartilhar informações financeiras com IAs?
Informações financeiras, como dados bancários e números de cartão de crédito, nunca devem ser compartilhadas com uma IA. Muitos crimes digitais envolvem o uso indevido dessas informações, tornando essencial mantê-las seguras para prevenir fraudes financeiras. A proteção desses dados é fundamental para garantir a segurança financeira dos usuários.
É seguro discutir questões emocionais com IAs?
Embora existam IAs projetadas para simular interações amigáveis ou até mesmo atuar como terapeutas virtuais, especialistas alertam que isso pode ser arriscado. As IAs não têm a capacidade de compreender emoções humanas e podem responder de maneira inadequada. Em situações de dificuldades emocionais, é recomendável buscar apoio de amigos, familiares ou profissionais qualificados, em vez de recorrer a chatbots.
Além disso, informações médicas não devem ser compartilhadas com IAs. A proteção de dados pessoais é garantida por leis como a Lei Geral de Proteção de Dados (LGPD), que abrange informações sensíveis, incluindo resultados de exames médicos. Apenas profissionais de saúde qualificados têm a capacidade de interpretar corretamente esses dados.
Por que evitar discussões sobre atividades ilegais com IAs?
Discussões sobre atividades ilegais são claramente inapropriadas para serem compartilhadas com IAs. Ferramentas como o ChatGPT não foram projetadas para lidar com questões antiéticas ou que possam comprometer a segurança de outras pessoas. Além disso, conteúdos inadequados inseridos em prompts podem ser armazenados para revisão, resultando em possíveis ações legais contra o usuário.
Em resumo, é vital ter cuidado ao interagir com inteligências artificiais, evitando compartilhar informações pessoais, dados empresariais, informações financeiras, questões emocionais e discussões sobre atividades ilegais. Proteger esses dados é essencial para garantir a segurança e a privacidade no uso dessas tecnologias.
