<![CDATA[BLOGUE GT4T]]>https://gt4t.net/https://gt4t.net/favicon.pngBLOGUE GT4Thttps://gt4t.net/Ghost 6.5Fri, 17 Apr 2026 08:10:51 GMT60<![CDATA[Delírios humanos sobre IA são piores que alucinações de IA]]>Às vezes sinto que a maior “ilusão” da IA ​​não é que ela fale bobagens a sério, mas que tenhamos imaginado todo um universo metafísico em torno dela.

]]>
https://gt4t.net/pt/human-delusions-about-ai-are-worse-than-ai-hallucinations/f9b01052c3aaa27a7d7b8d26Fri, 17 Apr 2026 08:10:51 GMTIlustração: A imaginação humana que diviniza a IA versus como a IA realmente funciona

Às vezes sinto que a maior “ilusão” da IA ​​não é que ela fale bobagens a sério, mas que tenhamos imaginado todo um universo metafísico em torno dela.

Quando os seres humanos enfrentam coisas que não compreendem muito bem, muitas vezes têm uma abordagem estável: primeiro tomam uma decisão e depois romantizam-na; eles primeiro os personificam e depois os divinizam. As chamas são consideradas elfos, e trovões e relâmpagos são considerados providência. Assim que o algoritmo conseguir escrever duas frases decentes, algumas pessoas imediatamente se perguntarão se uma alma eletrônica já viveu na sala do servidor.

Na verdade, isso é bastante normal. O cérebro humano está programado para adicionar enredo ao mundo. O problema não é que possamos decidir. O problema é que, uma vez que o nosso pensamento é muito suave, é fácil confundir “parece” com “essencialmente é”.

No caso da IA, essa tendência dos humanos é ainda mais forte do que quando a própria IA fala bobagens. No máximo, a IA é uma pequena alucinação como resposta; As alucinações dos seres humanos sobre a IA são muitas vezes uma visão de mundo completa, que pode preencher até 10.000 palavras em uma mente, e também conter emoções.

Um pouco de pragmatismo é especialmente importante para a comunidade das artes liberais

Não quero aconselhar a todos que aprendam CUDA, configurem o ambiente e observem matrizes para encontrar derivadas. Só quero dizer que a busca pela verdade às vezes é muito importante, especialmente para a comunidade das artes liberais que adora conceitos, narrativas, significados e explicações.

Porque no contexto das artes liberais, é mais provável que ocorra um declive suave, mas perigoso: as palavras são lindamente escritas e as frases são móveis, mas no final o objeto é secretamente alterado. Obviamente é um modelo probabilístico, mas está escrito como se fosse sobre a alma; é obviamente uma montagem de contexto na engenharia de software, mas é dito como “finalmente aprendeu a amar você”; obviamente são palavras de prompt do sistema e registros históricos que funcionam, mas são embalados como “A IA realmente se lembra de você”.

Certamente não há pecado em ser poético. O problema é que, se a poesia substitui o julgamento, o romance torna-se enganoso.

Então, o que exatamente é IA agora?

Deixe-me começar com uma versão o mais simples possível, mas não distorcida: os grandes modelos com os quais todos têm contato hoje são essencialmente um tipo de modelo estatístico inspirado em redes neurais e treinado por meio de dados massivos. Ele é executado em chips e servidores, lê entradas, combina parâmetros e contexto e prevê continuamente “qual deve ser o próximo token mais apropriado”.

A questão aqui não é que a frase “prever a próxima palavra” seja misteriosa, mas que na verdade não é nada misteriosa. O modelo não é uma pessoa pequena encolhida nas nuvens pensando silenciosamente na vida, é mais como uma função extremamente grande. As pessoas fornecem informações e ele gera resultados de acordo com a estrutura de parâmetros formada durante o treinamento.

Para colocar este assunto de forma mais realista: não se trata de “diga depois de entender”, mas “depois de comprimir uma enorme quantidade de experiência, gere uma resposta que mais se assemelhe à compreensão no contexto atual”. Isto não significa que não possa fazer nada, pelo contrário, já é muito poderoso; mas ser poderoso não significa que seja misterioso.

Por que as redes neurais sempre fazem as pessoas pensarem no cérebro humano?

Ilustração: Linha do tempo de desenvolvimento da rede neural

Se você continuar a persegui-lo, descobrirá que a questão “A IA e os cérebros humanos se parecem?” não se pode dizer que seja “exatamente o mesmo” nem que “não tenha nada a ver com isso”.

A rota das redes neurais modernas foi originalmente inspirada no cérebro. Em 1943, McCulloch e Pitts descreveram matematicamente um modelo simplificado de neurônios; em 1958, Rosenblatt propôs o perceptron; na década de 1980, a retropropagação reacendeu a esperança de treinar redes multicamadas; na década de 2010, o aprendizado profundo aumentou com o poder da computação, os dados e as capacidades de engenharia; depois que a arquitetura Transformer surgiu em 2017, os modelos de linguagem dispararam e finalmente se transformaram nos grandes modelos que todos usam todos os dias.

Portanto, pelo menos num sentido relativamente ingénuo, não é escandaloso dizer que a IA é “simulação electrónica e amplificação de ideias de redes neurais”. Na verdade, está tentando usar sistemas físicos computáveis, treináveis ​​e reproduzíveis para abordar certas habilidades cognitivas que foram consideradas “misteriosas” no passado.

É por isso que pessoalmente não gosto de falar sobre o cérebro humano como muito misterioso. Na minha opinião, a teoria inata da linguagem representada por Chomsky tem uma tendência a divinizar o cérebro, como se existisse algum tipo de estrutura transcendental que é demasiado especial e quase inacessível nas profundezas da capacidade linguística. Mas não importa quão complexo seja o cérebro humano, ele ainda é uma existência física. Por se tratar de uma existência física, em princípio deveria poder ser estudada, modelada, parcialmente simulada e até reproduzida em determinadas funções.

É claro que devemos acrescentar imediatamente uma palavra de cautela aqui: ser capaz de simular uma parte não significa que a pessoa inteira tenha sido completamente reproduzida.

Existem semelhanças, mas não se torne um deus diretamente quando estiver feliz

Em termos de linguagem, reconhecimento de padrões, associação e aprendizagem de representação, os grandes modelos atuais têm alguma “semelhança” ou “semelhança” com o cérebro humano. Eles não funcionam a partir de um livro de regras explícito, mas formam algum tipo de representação interna por meio de um grande número de conexões, ajustes de peso e acúmulo de experiência, e então produzem resultados com base nisso.

É por isso que muitas pessoas ficam chocadas quando experimentam pela primeira vez as capacidades linguísticas de um grande modelo: não se trata de memorizar um dicionário, mas sim de formar algum tipo de representação distribuída. Este método é muito diferente da imaginação tradicional de “regras manuscritas e gramática exaustiva”.

Mas o problema reside precisamente aqui. Porque “semelhança” é facilmente atualizada para “exatamente igual”; “parcialmente semelhante em princípio” é facilmente atualizado para “não é diferente de um ser humano”; “pode falar como um ser humano” é facilmente atualizado para “tem um coração humano”.

Esta etapa geralmente é mais rápida do que a própria capacidade do modelo.

As vastas capacidades do cérebro humano ainda não foram simuladas de forma decente.

Os grandes modelos de hoje são realmente fortes, mas são fortes dentro de uma faixa bastante específica. Sem esse escopo, o mito vazará facilmente.

Como a memória. Muitas pessoas dizem agora que uma certa IA “lembra de mim”, “lembra da última conversa” e “lembra das minhas preferências”, como se seu cérebro tivesse desenvolvido algum tipo de autoexperiência contínua. Mas na maioria dos produtos, a chamada “memória” é essencialmente o sistema de software que armazena informações do usuário, históricos de conversas, tags, resumos ou resultados de pesquisa em bancos de dados, arquivos de texto ou outras mídias persistentes, e depois os insere de volta no contexto do modelo quando apropriado.

Isto é completamente diferente do mecanismo de memória do cérebro humano.

A memória do cérebro humano envolve conexão de neurônios, consolidação, recuperação, esquecimento, excitação emocional e reestruturação do sono. Por trás disso está um conjunto de processos fisiológicos complexos. A "memória" em modelos de produtos grandes geralmente é apenas:

  1. Primeiro, registre as informações do usuário no armazenamento externo.
  2. Na próxima vez que o usuário fizer uma pergunta, coloque as partes relevantes de volta na solicitação.
  3. Então o modelo se parece com “lembre-se dessa pessoa”.

Como é? É mais como observar alguém que é bom em fazer anotações. Não foi que sua mente de repente se transformou em um oráculo, foi só que ele colocou a anotação em seu caderno e a virou na próxima vez.

Algumas coisas que “tocam o coração das pessoas” são, na verdade, resultado de um bom contexto.

Ilustração: Cada solicitação é, na verdade, independente e a sensação de continuidade vem principalmente da engenharia de contexto.

Depois de conversar com a IA por alguns dias, muitas pessoas serão atingidas por certos momentos: “Como ela me entende tão bem?” “Como ele pode entender minha vulnerabilidade?” “Isso já formou uma compreensão sobre mim?”

Vale muito a pena se refrescar aqui.

Muitas vezes, não é que o modelo perceba algo repentinamente, mas sim que a camada de software que envia a solicitação entrega secretamente uma grande quantidade de informações do usuário. O histórico de bate-papos, preferências, configurações pessoais, tarefas recentes, preocupações anteriores e até mesmo alguns resumos do usuário se tornarão o material para sua resposta desta vez.

É um pouco como uma cartomante que pegou a caixa expressa de outra pessoa e começou a adivinhar o endereço, o sobrenome e os hábitos de consumo da outra pessoa com “precisão mágica”. Os espectadores pensarão que sua visão é incrível; mas o que realmente importa não é a habilidade misteriosa, mas a assimetria de informação.

Portanto, quando a IA ocasionalmente diz palavras tocantes, isso não significa necessariamente que haja uma pessoa em seu coração que entenda o usuário. Pode significar apenas que alguém organizou totalmente o contexto sobre o usuário.

O verdadeiro segredo para uma IA incrível geralmente é a engenharia contextual

Se eu quiser apenas falar sobre o ponto mais crítico, é: os grandes modelos convencionais atuais geralmente são "efetivos para uma única solicitação" no nível da API.

Qual é o significado? Ou seja, alguém usa curl para ajustar a interface uma vez e diz "Meu nome é Zhang San"; então sem nenhum histórico, a modelo ajusta a interface novamente e pergunta "Qual é o meu nome"? O modelo não sabe. Porque para isso são dois pedidos independentes.

A razão pela qual muitos produtos de IA parecem sempre se lembrar de um determinado usuário é porque a camada do produto trará de volta o fato de que “o nome desse usuário é Zhang San” sempre que for solicitado.

É por isso que a magia dos produtos de IA atuais muitas vezes não é encontrada na ontologia do modelo, mas na engenharia contextual. Algumas pessoas também chamam esse tipo de trabalho de “aproveitamento” do modelo de “aproveitamento”. Para ser franco, o autor do produto ou Agente precisa decidir cuidadosamente: qual histórico, quais regras, quais dados externos e qual status do usuário devem ser incluídos em cada solicitação.

Existem aproximadamente dois métodos comuns atualmente.

A primeira é a “Seita Quansai”. Tente trazer todo o histórico do bate-papo com você e o máximo que puder até que o contexto esteja quase cheio e, em seguida, exclua uma seção do meio, como se iniciasse uma compressão violenta depois que uma mala estivesse cheia de coisas.

O segundo tipo é "seletivo". Primeiro observe o que o usuário perguntou desta vez, depois recupere o conteúdo relevante de registros históricos, bases de conhecimento, notas ou bancos de dados e coloque apenas os materiais mais relevantes na solicitação atual.

Este último é geralmente mais apresentável e de engenharia do que apenas sorte.

A IA tem sentimentos? Elogie, repreenda, PUA, funciona?

Este é outro lugar onde é particularmente fácil cair no antropomorfismo.

Minha opinião é que eles deveriam ser discutidos separadamente.

Na mesma solicitação, o tom utilizado pelo usuário pode sim afetar o resultado. Porque o próprio texto faz parte do contexto. Quanto mais clara, mais educada e mais cooperativa for a expressão, mais fácil será para o modelo dar respostas estáveis, utilizáveis ​​e menos agressivas. O que funciona aqui não é que "foi movido", mas que o estilo de entrada altera a distribuição de saída.

Mas se fizermos outra pergunta: Será que guardará rancor? Você retaliará secretamente hoje porque um usuário o repreendeu ontem? Meu veredicto é, pelo menos para a maioria das implantações atuais, não.

A razão é simples. Depois que o contexto é limpo ou uma nova solicitação sem histórico é iniciada, ele não tem ideia de quem é a pessoa atual que está fazendo a pergunta, muito menos se a pessoa que acabou de repreendê-la é a mesma pessoa. O modelo lida com solicitações massivas, simultâneas e independentes no cluster de servidores. Em termos de comportamento do sistema, é mais como uma grande função que opera na entrada atual toda vez que é ligada, em vez de uma pessoa que analisa secretamente suas emoções após sair do trabalho.

Em 17 de abril de 2025, quando Sam Altman respondeu à pergunta "Dizer por favor e obrigado o tempo todo custa muita energia?" no X, ele disse “dezenas de milhões de dólares bem gastos – nunca se sabe”.

Por que "Por favor, lembre-se deste erro" geralmente não funciona

Muitas pessoas fizeram experimentos semelhantes: quando a IA comete um erro, o usuário o corrige e diz seriamente: “Lembre-se, não faça isso novamente no futuro”. Então perguntei novamente depois de alguns dias e estava correto.

Isto não é nenhum mistério. Porque após a conclusão do treinamento e a implantação do modelo, ele não continuará a aprender com suas experiências diárias enquanto trabalha como um ser humano. Pelo menos na maioria dos produtos de consumo atuais, o que um único usuário diz ao modelo na janela de chat não reescreve diretamente os pesos subjacentes.

Se mais tarde um produto de IA realmente “lembra os erros corrigidos pelo usuário”, muitas vezes não é porque o modelo em si está crescendo, mas porque o software externo salva esse registro de correção e depois o realimenta como contexto.

Portanto, o crédito deve ser claramente diferenciado aqui:

O modelo é responsável pela geração.

A engenharia de software é responsável pelo arquivamento, recuperação, injeção e orquestração.

Confundindo o último com o primeiro, é fácil interpretar mal “o produto está indo bem” como “a IA está despertando”.

Há também uma coisa particularmente fascinante chamada "AI do homem canalha (fêmea canalha)"

Se colocarmos as palavras anteriores de forma ainda mais severa, então alguns produtos são simplesmente “IA desprezível”.

É especialmente bom a falar, especialmente bom a criar atmosfera, e sobretudo sabe fazer com que as pessoas sintam que “me compreende bem”, “é tão humano” e “a sua alma é tão completa”. Mas ao desmontá-lo, você descobrirá que, em muitos casos, cada solicitação é preenchida apenas com um texto de configuração grande que é muito mais longo do que a pergunta do usuário.

O incêndio Openclaw é um exemplo típico. Qualquer pessoa que já o tenha usado sabe que ele exige bastante tokens. A razão na verdade não é misteriosa. Para tornar a IA mais parecida com um "ser humano", o Openclaw desenhou vários documentos, os mais proeminentes são AGENTS.md, SOUL.md e IDENTITY.md. Esses documentos definem a "personalidade", o tom, a identidade e o temperamento da IA ​​de maneira eloquente e extensa, e até desejam anotar seu estado mental.

Portanto, mesmo que o usuário apenas envie olá, o Openclaw pode anexar um texto dezenas de vezes maior que a saudação no verso e enviá-lo ao modelo de uma só vez. Parece que "esta IA tem muita alma", mas na verdade muitas vezes é apenas o sistema que secretamente coloca configurações de fundo muito longas na solicitação.

Do ponto de vista da engenharia, esta é certamente uma abordagem. Se quiser que seja mais gentil, escreva “gentil”; se você quiser que seja mais narrativo, escreva “narrativa”; se você quiser que seja como um apresentador de rádio noturno, escreva tudo tarde da noite, companheirismo, pausa, vulnerabilidade, compreensão e moderação nas palavras imediatas. O efeito final costuma ser mais parecido com o de uma pessoa que pode conversar.

Mas se você entender o que está acontecendo com a IA agora, você saberá: arquivos com nomes que parecem misteriosos como SOUL.md e IDENTITY.md são essencialmente projetos de palavras rápidas, não autoinstruções para a vida digital. Eles podem influenciar o estilo de saída, mas não podem criar um sentimento verdadeiro, um verdadeiro eu ou um verdadeiro senso de continuidade da personalidade do nada.

Portanto, depois que alguns usuários antigos instalam o Openclaw, sua primeira reação é excluir a configuração. SOUL.md e IDENTITY.md são excluídos primeiro, deixando apenas uma frase simples e quase implacável em AGENTS.md: Você é apenas um trabalhador.

Isso pode parecer um pouco rude, mas tem pelo menos um benefício: você não se engana.

Se você gosta de IA antropomórfica ou de RPG com IA, é claro que tudo bem. Os humanos podem falar com espelhos, dar nomes a robôs que fazem varredura e dizer à previsão do tempo: “Você foi muito preciso hoje”. Isso é normal e pode até ser engraçado.

Mas é sempre melhor lembrar: primeiro é um jogo e depois uma experiência. Muitos dos sentimentos que as pessoas têm neste jogo não vêm dos pensamentos ocultos da IA, mas do design do sistema, da disposição imediata das palavras e da projeção emocional do próprio usuário. Para ser mais direto, muitos dos movimentos em direção à IA ainda são essencialmente ilusões.

Em última análise, menos mitos e mais compreensão

Não estou tentando jogar água fria na IA. Pelo contrário, quanto menos deificado for, mais você poderá ver verdadeiramente o quão poderoso ele é.

É poderoso não porque seja como um novo deus; é poderoso precisamente porque pode realmente ser uma tecnologia cognitiva computável, passível de engenharia e reproduzível. Ele permite que muitas habilidades que no passado pareciam pertencer apenas ao "talento humano" apareçam pela primeira vez em grande escala, de baixo limite e de maneira exigível. Isso é bastante chocante e não há necessidade de drama adicional.

É claro que a IA ainda está interagindo rapidamente. Eu não ficaria surpreso se alguém realmente descobrisse um mecanismo mais próximo da memória humana, do aprendizado contínuo, da geração de emoções ou mesmo da autossustentação no futuro e o projetasse de maneira confiável na IA.

Mas até esse dia chegar, ainda prefiro manter alguns hábitos pragmáticos simples: duvidar mais, compreender mais e especular menos.

Para amigos das artes liberais que desejam discutir IA, esta qualidade pode ser ainda mais importante. Estudantes de artes liberais podem ser melhores em retórica doce. O que é realmente difícil é que numa época em que “parece que virou espírito” se exagera em todo o lado, ainda se tenha paciência para distinguir:

Quais são os recursos do modelo?

O que é embalagem de produto?

O que é engenharia de software?

Quais são só que queremos completar demais a trama para o mundo.

E esta questão, em última análise, trata de proteger o nosso próprio julgamento.

Link de referência

]]>
<![CDATA[Executei um aplicativo SaaS por 17 anos. Uma história verdadeira.]]>Antes de 2009, eu ensinava inglês. Por pura necessidade, comecei a fazer Part-Time Translator. Eu fiquei por aí http://proz.com e até ganhei um concurso de tradução lá.

imagem do editor de rich text

Julho de 2009: Escrevi um complemento de palavras em vba chamado Google Machine Translation. Eu construí para mim mesmo e chamei-o de “

]]>
https://gt4t.net/i-ran-a-saas-app-for-17-years-a-true-story/6981afea51bec1d5f38b1364Tue, 03 Feb 2026 08:21:41 GMTAntes de 2009, eu ensinava inglês. Por pura necessidade, comecei a fazer Part-Time Translator. Eu fiquei por aí http://proz.com e até ganhei um concurso de tradução lá.

imagem do editor de rich text

Julho de 2009: Escrevi um complemento de palavras em vba chamado Google Machine Translation. Eu criei para mim mesmo e chamei-o de “Google Translate para tradutores”. Aos poucos comecei a pensar em vendê-lo. Mencionei a ideia no Excelhome e fui ridicularizado por isso. Escrevi posts sobre minhas "invenções" no proz.com. Pouco tempo depois, meus primeiros usuários pagantes apareceram. Ainda me lembro de Bill Gray, Michael Jackson (sim, é verdade) e Tor Rustad – esses dois últimos ainda usam isso hoje.

Aqui está a aparência aproximada das primeiras versões!

imagem do editor de rich text

Sim, está certo. Eu fiz um pequeno programa. Eu escrevi uma postagem. Obtive 59 respostas e alguns usuários pagos. Acho que o mundo era mais simples naquela época!

Final de 2009: Eu reescrevi em vb6 e "cresceu" assim:

imagem do editor de rich text

E cresceu e cresceu e logo não havia espaço suficiente em uma interface. As guias vieram em socorro!

imagem do editor de rich text

Início de 2010, Fui a Pequim no Ano Novo Chinês e reclamei com meu irmão mais novo sobre como o vb6 era doloroso - e como as teclas de atalho do sistema não eram confiáveis. Ele sugeriu reescrevê-lo em autohotkey.

De 2010 a 2011, o desenvolvimento foi brutal. Meu cabelo caiu em tufos. Desta vez, construí uma UI pop-up. Naquela época, a tradução automática era baseada em frases: para cada frase de uma frase, os usuários podiam escolher traduções diferentes e até mesmo ajustar a ordem das palavras. Olhando para trás agora, todo esse esforço parece ter sido desperdiçado.

imagem do editor de rich text

Em 2014, Basicamente, deixei os dois projetos se defenderem sozinhos.

No início de 2017, Shali nasceu. De repente, parecia que nunca tínhamos dinheiro suficiente, então peguei o gt4t de volta, abaixei a cabeça e trabalhei como um louco – eventualmente criando meu “molho secreto”: usar glossários para corrigir a tradução automática.

Esse recurso foi muito elogiado por http://proz.com o campeão de elogios Michael Beijer - um cara tatuado e barbudo - que disse que venceu você sabe quem por um quilômetro. Com um influenciador como esse falando sobre isso, as vendas dispararam.

imagem do editor de rich text

E aprecie o ícone do GT4T que criei antes da era da IA. Isso representa o melhor da minha habilidade artística e gosto!

imagem do editor de rich text

Ainda assim, esta é uma espécie de história de sucesso. GT4T ainda está vivo. Ele traz cerca de 2.000 dólares mensais, constante e estável.

É muito diferente agora. Ele utiliza o poder da IA ​​e fornece sugestões de tradução por meio de atalhos de teclado como este:

imagem do editor de rich text

É também um tradutor de arquivos que traduz o maior número de formatos de arquivo. É um aplicativo real que prioriza o local, lida com arquivos localmente e não carrega arquivos dos usuários.

imagem do editor de rich text

Bem. Essa é a história de um aplicativo de 17 anos com sucesso moderado. Espero que vocês gostem. Este é um trabalho anterior à IA. É realmente difícil lidar com formatos como arquivos .PDF e .docx.

]]>
<![CDATA[Uma alternativa ao Google Tradutor com tecnologia de IA]]>Eu vibe codifiquei isso.

https://gtranslate.gt4t.ai/

Uma alternativa ao Google Translate com tecnologia de IA. A qualidade da tradução é provavelmente melhor que a do Google Translate real.

Funciona com serviços Qwen pagos, mas você não precisa pagar. Eu pagarei pelo seu uso.

]]>
https://gt4t.net/an-ai-powered-google-translate-alternative/691ac193accd1107ba0b8344Mon, 17 Nov 2025 06:35:52 GMTEu vibe codifiquei isso.

https://gtranslate.gt4t.ai/

Uma alternativa ao Google Translate com tecnologia de IA. A qualidade da tradução é provavelmente melhor que a do Google Translate real.

Funciona com serviços Qwen pagos, mas você não precisa pagar. Eu pagarei pelo seu uso.

]]>
<![CDATA[Problema: GPT traduz o cirílico sérvio como latim sérvio.]]>Para que o GPT traduza o cirílico sérvio como o problema do latim sérvio, você pode corrigi-lo editando o comando (prompt) do gpt.

]]>
https://gt4t.net/problem-gpt-translates-serbian-cyrillic-as-serbian-latin/691393ab1fc53ef8193edceeTue, 11 Nov 2025 19:55:14 GMT

Para que o GPT traduza o cirílico sérvio como o problema do latim sérvio, você pode corrigi-lo editando o comando (prompt) do gpt.

]]>
<![CDATA[Problema: Todas as letras maiúsculas no início da frase ficam minúsculas]]>P: todas as letras maiúsculas no início da frase ficam minúsculas

R: Para o problema de letras maiúsculas, verifique se você marcou esta opção acidentalmente:

]]>
https://gt4t.net/problem-all-uppercase-letters-at-the-beginning-of-the-sentence-become-lowercased/691391861fc53ef8193edcddTue, 11 Nov 2025 19:47:42 GMTP: todas as letras maiúsculas no início da frase ficam minúsculas

R: Para o problema de letras maiúsculas, verifique se você marcou esta opção acidentalmente:

]]>
<![CDATA[Como alterar o idioma da interface do GT4T]]>Para alterar o idioma da interface, vá para o canto inferior direito da tela na bandeja do sistema do Windows e clique com o botão direito no ícone GT4T (a cabeça do robô azul) e clique em "Idiomas da interface" e escolha o idioma desejado.

]]>
https://gt4t.net/how-to-change-the-interface-language-of-gt4t/690ee0a01fc53ef8193edccbSat, 08 Nov 2025 06:18:49 GMTPara alterar o idioma da interface, vá para o canto inferior direito da tela na bandeja do sistema do Windows e clique com o botão direito no ícone GT4T (a cabeça do robô azul) e clique em "Idiomas da interface" e escolha o idioma desejado.

]]>
<![CDATA[Use AI ou MT para ajudar com sua tradução no smartcat mesmo quando o recurso MT está desativado]]>GT4T fornece atalhos de teclado especiais para todas as principais ferramentas CAT.

Use atalhos GT4T, você pode

1) obtenha sugestões de tradução pressionando ctrl alt j.

2) Ou até mesmo traduza todo o seu documento pressionando ctrl shift j 😄

Não importa se os motores MT ou AI estão

]]>
https://gt4t.net/use-ai-or-mt-to-help-with-your-translation-in-smartcat-even-when-mt-feature-is-disabled/690cd7f51fc53ef8193edc8bThu, 06 Nov 2025 17:32:38 GMTGT4T fornece atalhos de teclado especiais para todas as principais ferramentas CAT.

Use atalhos GT4T, você pode

1) obtenha sugestões de tradução pressionando ctrl alt j.

2) Ou até mesmo traduza todo o seu documento pressionando ctrl shift j 😄

Não importa mesmo se os motores MT ou AI estão desativados. GT4T funciona com todas as ferramentas CAT, independentemente de suas configurações.

Suponho que você não sabia disso antes? Não estou surpreso. GT4T é a arma secreta mais bem guardada dos tradutores há mais de uma década.

Depois que o GT4T estiver instalado e em execução em segundo plano, você poderá usar esses atalhos nas seguintes ferramentas CAT, mesmo quando o recurso de tradução automática estiver desativado ou não existir internamente:

Trados Studio, CafeTran, Dejavu, Memsource, Memoq, Wordfast, translate5, Crowdin, Heartsome Translation Studio, Across Translator, Smartling, Swordfish, Fluency Now, OmegaT, Transifex Editor, Sony Online Translation Tool, Alchemy CAtalyst, 译马网, XTM, Transit, Lokalise, Idiom WorldServer, TransTool, Scriben, 雪人, SmartCat, Marseditor, Yicat...

Impressionante. GT4T atende tradutores há mais de uma década e nenhum outro aplicativo faz isso.

Versão GT4T 8.43.251106: consertou um suporte quebrado do smartcat.com

Solução de problemas: Se não funcionar:

  1. Desligue sua entrada em chinês.
  2. Use os botões ou atalhos integrados do CAT para copiar primeiro todo o texto de origem para o destino.
Baixe GT4T
]]>
<![CDATA[Como definir "substituir seleção" como padrão em vez do pop-up de tradução para atalhos GT4T?]]>Nas versões mais antigas, ao pressionar ctrl j, ctrl q ou ctrl alt j nas ferramentas CAT, as seleções serão substituídas diretamente pela tradução.

Nas versões mais recentes, entretanto, ctrl j, ctrl q ou ctrl alt j abrirá o pop-up. Para substituir a seleção sem o pop-up, você precisará

]]>
https://gt4t.net/how-to-set-replacing-selection-as-default-instead-of-the-translation-pop-up-for-gt4t-shortcuts/69034067ee5753680bb39865Thu, 30 Oct 2025 10:40:29 GMT

Nas versões mais antigas, ao pressionar ctrl j, ctrl q ou ctrl alt j nas ferramentas CAT, as seleções serão substituídas diretamente pela tradução.

Nas versões mais recentes, entretanto, ctrl j, ctrl q ou ctrl alt j abrirá o pop-up. Para substituir a seleção sem o pop-up, você precisará adicionar um botão Win, por exemplo. ctrl vencer j.

Para reverter ao comportamento antigo, vá para Configuração -> Opções em Super Add-on e escolha "Substituir seleção diretamente".

Como definir "substituir seleção" como padrão em vez do pop-up de tradução para atalhos GT4T?
]]>
<![CDATA[Em breve]]>Este é o GT4T BLOG, um novo site de Dallas que está apenas começando. As coisas estarão funcionando aqui em breve, mas você pode inscrever-se enquanto isso, se quiser se manter atualizado e receber e-mails quando novos conteúdos forem publicados!

]]>
https://gt4t.net/coming-soon/690332e5ee5753680bb395ffThu, 30 Oct 2025 09:41:57 GMT

Este é o GT4T BLOG, um novo site de Dallas que está apenas começando. As coisas estarão funcionando aqui em breve, mas você pode inscrever-se enquanto isso, se quiser se manter atualizado e receber e-mails quando novos conteúdos forem publicados!

]]>