Inteligência Artificial

Imagem de papa com casaco preocupa até o ChatGPT; veja o que pode implicar na política

27 mar 2023, 16:06 - atualizado em 27 mar 2023, 16:06
Papa Francisco IA
O chatbot inclusive lista os perigos, e possíveis implicações na política, bem como os prós da tecnologia (Imagem: MidJourney/Reprodução)

Recentemente rodou na internet uma imagem do papa estiloso vestindo um casaco branco. Houve muita divulgação em cima do assunto, mas, na verdade, a imagem foi gerada pelo MidJourney, uma ferramenta de inteligência artificial (IA) que cria imagens a partir de textos.

Contudo, a imagem do papa Francisco “Faria Limer”, como o apelidaram, preocupou alguns internautas. O motivo foi por ser uma tecnologia bastante difundida ao público, e de fácil acesso, que enganou diversos portais de notícias.

Para entender as implicações disso, o Money Times perguntou a um “colega” do MidJourney, o ChatGPT da OpenAI, e este disse estar bastante preocupado sobre esse tipo de tecnologia em mãos erradas.

  • Entre para o Telegram do Money Times!
    Acesse as notícias que enriquecem seu dia em tempo real, do mercado econômico e de investimentos aos temas relevantes do Brasil e do mundo. Clique aqui e faça parte!

O chatbot inclusive lista os perigos, e possíveis implicações na política, bem como os prós da tecnologia. Confira:

O papa é pop! Mas o ChatGPT tem medo

Money Times: Bom dia, ChatGPT! Recentemente uma imagem feita por inteligência artificial do papa viralizou nas redes. Na imagem, o papa vestia um casaco branco, e parecia tão real que sites de notícias deram a história como sendo verdadeira. Acredita que isso possa se tornar comum com o aprimoramento da tecnologia?

ChatGPT: Bom dia!

Sim, com a constante evolução da tecnologia de inteligência artificial, é possível que a criação de imagens geradas por computador se torne cada vez mais realista e convincente, como no caso da imagem do papa que você mencionou.

Essa tecnologia, conhecida como “Deepfake”, pode ser usada para criar imagens, vídeos ou áudios falsos que parecem autênticos. Embora a tecnologia ainda tenha limitações, a cada dia que passa ela se torna mais sofisticada e avançada, o que pode tornar cada vez mais difícil distinguir entre imagens geradas por computador e imagens reais.

Isso pode ter implicações importantes para a segurança e a privacidade das pessoas, bem como para a credibilidade das notícias e informações divulgadas na internet.

É importante que haja um esforço contínuo para desenvolver mecanismos de detecção de deepfakes e educar as pessoas sobre a existência e o potencial impacto dessas tecnologias.

Money Times: Quais poderiam ser as implicações práticas disso na política?

ChatGPT: As implicações práticas do uso de deepfakes na política podem ser significativas e preocupantes. Aqui estão algumas possíveis implicações:

  1. Manipulação de eleições: Deepfakes podem ser usados para criar vídeos falsos de políticos em situações comprometedoras ou dizendo coisas que nunca disseram, o que poderia afetar o resultado de uma eleição.
  2. Ataques pessoais: Deepfakes podem ser usados para criar vídeos falsos de políticos em situações pessoais embaraçosas, que podem afetar sua reputação e carreira.
  3. Desinformação: Deepfakes podem ser usados para espalhar desinformação e propaganda política, com a intenção de influenciar a opinião pública.
  4. Segurança nacional: Deepfakes podem ser usados para enganar líderes políticos e militares, ou para criar cenários falsos de conflito, o que pode levar a decisões precipitadas e ações militares desnecessárias.

Para combater essas ameaças, é importante que governos e organizações trabalhem juntos para desenvolver técnicas de detecção de deepfakes e para educar o público sobre a existência dessas tecnologias.

Além disso, políticos e líderes devem ser cautelosos em relação aos vídeos que compartilham e às informações que divulgam online, e devem verificar cuidadosamente a autenticidade de qualquer informação antes de tomarem decisões importantes.

Money Times: Então você é a favor da sua regulação?

ChatGPT: A regulação de deepfakes é um assunto complexo que envolve muitas questões éticas, legais e de liberdade de expressão. Como uma inteligência artificial neutra, eu não tenho uma opinião pessoal sobre a regulação de deepfakes.

No entanto, posso apontar algumas questões que precisam ser consideradas ao discutir a regulação de deepfakes:

  1. Proteção da privacidade: As deepfakes podem ser usadas para violar a privacidade das pessoas, criando imagens ou vídeos falsos sem seu consentimento. A regulação pode ajudar a proteger a privacidade das pessoas e a prevenir o uso indevido de deepfakes.
  2. Desinformação e manipulação: Deepfakes podem ser usadas para espalhar desinformação ou manipular a opinião pública. A regulação pode ajudar a prevenir o uso indevido de deepfakes para fins políticos ou maliciosos.
  3. Liberdade de expressão: A regulação de deepfakes pode ser vista como uma restrição à liberdade de expressão. É importante encontrar um equilíbrio entre a proteção da privacidade e a prevenção da manipulação política, sem limitar indevidamente a liberdade de expressão.

Em resumo, é importante considerar cuidadosamente os prós e contras da regulação de deepfakes antes de tomar uma decisão. É necessário um diálogo aberto e colaborativo envolvendo especialistas em tecnologia, legisladores, organizações de direitos civis e a sociedade em geral para encontrar soluções viáveis e justas.

Money Times: E quais seriam os prós do deepfake?

ChatGPT: Embora haja muitas preocupações em relação ao uso indevido de deepfakes, há também alguns benefícios potenciais que a tecnologia pode trazer. Aqui estão alguns exemplos:

  1. Entretenimento: Deepfakes podem ser usados para criar vídeos e filmes divertidos, que não seriam possíveis de outra forma. Por exemplo, deepfakes podem ser usados para colocar atores em papéis que não seriam capazes de interpretar, ou para recriar cenas de filmes antigos.
  2. Educação: Deepfakes podem ser usados para criar simulações realistas de eventos históricos, permitindo que as pessoas experimentem o passado de maneira mais imersiva.
  3. Pesquisa: Deepfakes podem ser usados para criar dados sintéticos realistas para treinar sistemas de inteligência artificial. Isso pode ser útil para o desenvolvimento de tecnologias de reconhecimento de voz, reconhecimento facial e outras aplicações.
  4. Saúde: Deepfakes podem ser usados para simular doenças ou condições médicas para ajudar os profissionais de saúde a entender melhor e tratar essas condições.

Em resumo, assim como qualquer outra tecnologia, o deepfake pode ter seus prós e contras. Cabe aos desenvolvedores e usuários da tecnologia usar a tecnologia de maneira responsável e ética, aproveitando seus benefícios e evitando seus riscos.

Compartilhar

TwitterWhatsAppLinkedinFacebookTelegram
Repórter do Crypto Times
Jornalista formado pela Universidade Presbiteriana Mackenzie. Repórter do Crypto Times, e autor do livro "2020: O Ano que Não Aconteceu". Escreve sobre criptoativos, tokenização, Web3 e blockchain, além de matérias na editoria de tecnologia, como inteligência artificial, Real Digital e temas semelhantes. Já cobriu eventos como Consensus, LabitConf, Criptorama e Satsconference.
leonardo.cavalcanti@moneytimes.com.br
Twitter Linkedin
Jornalista formado pela Universidade Presbiteriana Mackenzie. Repórter do Crypto Times, e autor do livro "2020: O Ano que Não Aconteceu". Escreve sobre criptoativos, tokenização, Web3 e blockchain, além de matérias na editoria de tecnologia, como inteligência artificial, Real Digital e temas semelhantes. Já cobriu eventos como Consensus, LabitConf, Criptorama e Satsconference.
Twitter Linkedin
Giro da Semana

Receba as principais notícias e recomendações de investimento diretamente no seu e-mail. Tudo 100% gratuito. Inscreva-se no botão abaixo:

*Ao clicar no botão você autoriza o Money Times a utilizar os dados fornecidos para encaminhar conteúdos informativos e publicitários.

Usamos cookies para guardar estatísticas de visitas, personalizar anúncios e melhorar sua experiência de navegação. Ao continuar, você concorda com nossas políticas de cookies.

Fechar