Erro no site

Há alguns dias, consegui separar os posts “normais” do Blog dos micro-posts que estão na página Notas.

Mas, ao fazer isso, gerei um erro no site 🤡. Agora o usuário não consegue filtrar os posts pelas tags. Ao clicar sobre um tag, só aparece a lista padrão de posts.

Tentei resolver com ajuda do Gemini, mas sem sucesso (aliás, nada que eu já tentei fazer com a ajuda dele no site, em termos de código, deu certo 😒).

Enviei, então, um e-mail para o Herman. Ele já me indicou uma solução, mas ainda não tive disponibilidade para tentar corrigir.

Portanto, peço um pouco de paciência para aqueles que estão tentando navegar pelas tags. Em breve, vou tentar resolver.

Isso precisa parar

Li esse artigo assustador que relata uma situação em que um agente autônomo de IA escreve um artigo difamatório sobre uma pessoa que lhe negou o acesso ao código.

Vou dizer em outras palavras: uma IA está difamando uma pessoa, a fim de chantageá-la.

Partindo do princípio que essa é uma história real, isso precisa parar.

Não existe benefício que supere uma IA de forma autônoma difamar uma pessoa.

Esse artigo também foi comentado pelo Herman, criador do Bear Blog..

Quer comentar este post? Fique à vontade para entrar em contato por e-mail ou pelo Mastodon.

Grok, IA e Deepfakes

Após ler uma matéria que relata que o Grok está sendo usado para criar imagens falsas de mulheres sem roupas ou com roupas curtas, além de gerar imagens sexuais de menores, começo a refletir se esse tipo de tecnologia não poderia simplesmente deixar de existir, pelo menos para essa funcionalidade.

Em casos assim, muitos argumentam que a tecnologia pode ser usada para o bem ou para o mal. E como toda nova tecnologia, isso tem um risco. Por exemplo, facas são úteis para cortar alimentos, mas também podem machucar e matar pessoas.

Mas será que esse é o caso da IA? Bom, sou leigo para definir isso, mas será que é realmente tão difícil exigir que ela simplesmente não altere imagens, substitua rostos e, como no caso, altere o corpo das mulheres?

Ou seja, desde que ela foi lançada ela já veio com essa funcionalidade, correto? Ou alguém conseguiu alterar seu código e fazer com que ela fizesse isso, sem consentimento da empresa responsável? Não acho que é o caso.

Em outras palavras, imagens e vídeos fake é uma funcionalidade intrínseca. E foi disponibilizada propositadamente para poder fazer isso.

Tudo indica que a IA não é uma faca.