<![CDATA[GT4T BLOG]]>https://gt4t.net/https://gt4t.net/favicon.pngGT4T BLOGhttps://gt4t.net/Ghost 6.5Fri, 17 Apr 2026 08:10:51 GMT60<![CDATA[Menschliche Wahnvorstellungen über KI sind schlimmer als KI-Halluzinationen]]>Manchmal habe ich das Gefühl, dass die größte „Illusion“ der KI nicht darin besteht, dass sie ernsthaft Unsinn redet, sondern dass wir uns ein ganzes metaphysisches Universum um sie herum vorgestellt haben.

]]>
https://gt4t.net/de/human-delusions-about-ai-are-worse-than-ai-hallucinations/f9b01052c3aaa27a7d7b8d26Fri, 17 Apr 2026 08:10:51 GMTIllustration: Menschliche Vorstellungskraft, die KI vergöttert, im Vergleich dazu, wie KI tatsächlich funktioniert

Manchmal habe ich das Gefühl, dass die größte „Illusion“ der KI nicht darin besteht, dass sie ernsthaft Unsinn redet, sondern dass wir uns ein ganzes metaphysisches Universum um sie herum vorgestellt haben.

Wenn Menschen mit Dingen konfrontiert werden, die sie nicht ganz verstehen, verfolgen sie oft eine stabile Haltung: Sie entscheiden sich zunächst und romantisieren sie dann; sie personifizieren sie zunächst und vergöttern sie dann. Flammen gelten als Elfen und Donner und Blitz gelten als Vorsehung. Sobald der Algorithmus zwei anständige Sätze schreiben kann, wird sich mancher sofort fragen, ob im Serverraum bereits eine elektronische Seele gelebt hat.

Das ist eigentlich ganz normal. Das menschliche Gehirn ist darauf ausgelegt, der Welt eine Handlung hinzuzufügen. Das Problem ist nicht, dass wir uns entscheiden können. Das Problem besteht darin, dass es leicht ist, „sieht aus wie“ mit „im Wesentlichen ist“ zu verwechseln, wenn unser Denken zu glatt ist.

Bei KI ist diese Neigung des Menschen sogar noch stärker ausgeprägt, als wenn die KI selbst Unsinn redet. KI ist höchstens eine kleine Halluzination in einer Antwort; Die Halluzinationen der Menschen über KI sind oft eine ganze Weltanschauung, die bis zu 10.000 Wörter in einem Kopf füllen kann und auch Emotionen enthält.

Ein wenig Pragmatismus ist besonders wichtig für die Geisteswissenschaften

Ich möchte nicht jedem raten, CUDA zu lernen, die Umgebung zu konfigurieren und sich Matrizen anzusehen, um Ableitungen zu finden. Ich möchte nur sagen, dass die Suche nach der Wahrheit manchmal wirklich wichtig ist, insbesondere für die Gemeinschaft der freien Künste, die Konzepte, Erzählungen, Bedeutungen und Erklärungen liebt.

Denn im Kontext der freien Künste ist es am wahrscheinlichsten, dass es zu einem sanften, aber gefährlichen Abrutschen kommt: Die Wörter sind schön geschrieben und die Sätze bewegen sich, aber am Ende wird der Gegenstand heimlich verändert. Es handelt sich offensichtlich um ein probabilistisches Modell, aber es ist so geschrieben, als ginge es um die Seele; Es handelt sich offensichtlich um Kontextassemblierung in der Softwareentwicklung, aber es heißt so: „Es hat endlich gelernt, dich zu lieben“; Offensichtlich sind es die Eingabeaufforderungen des Systems und historische Aufzeichnungen, die funktionieren, aber die Aussage lautet: „KI erinnert sich wirklich an Sie.“

Es ist sicherlich keine Sünde, poetisch zu sein. Das Problem ist, dass Romantik irreführend wird, wenn Poesie das Urteil ersetzt.

Was genau ist nun KI?

Lassen Sie mich mit einer möglichst einfachen, aber nicht verzerrten Version beginnen: Die großen Modelle, mit denen heute jeder in Kontakt kommt, sind im Wesentlichen eine Art statistisches Modell, das von neuronalen Netzen inspiriert und durch massive Daten trainiert wird. Es läuft auf Chips und Servern, liest Eingaben, kombiniert Parameter und Kontext und sagt kontinuierlich voraus, „welches das nächstbeste Token sein sollte“.

Der Punkt hier ist nicht, dass der Ausdruck „das nächste Wort vorhersagen“ mysteriös ist, sondern dass er eigentlich überhaupt nicht mysteriös ist. Das Modell ist kein kleiner Mensch, der schweigend in den Wolken über das Leben nachdenkt, sondern eher eine extrem große Funktion. Die Leute geben ihm Eingaben und es generiert eine Ausgabe entsprechend der während des Trainings gebildeten Parameterstruktur.

Um es auf den Boden der Tatsachen zu bringen: Es geht nicht darum, „es zu sagen, nachdem man es verstanden hat“, sondern „nach der Komprimierung einer großen Menge Erfahrung eine Antwort zu erzeugen, die dem Verstehen im aktuellen Kontext am ähnlichsten ist.“ Das bedeutet nicht, dass es nichts kann, im Gegenteil, es ist bereits sehr mächtig; aber mächtig zu sein bedeutet nicht, dass es mysteriös ist.

Warum denken Menschen bei neuronalen Netzen immer an das menschliche Gehirn?

Abbildung: Zeitleiste der Entwicklung neuronaler Netze

Wenn Sie dem weiter nachgehen, werden Sie feststellen, dass sich die Frage „Ähneln sich KI und menschliche Gehirne?“ nicht stellt. Man kann weder sagen, dass es „exakt dasselbe“ ist, noch „hat es nichts damit zu tun“.

Der Weg moderner neuronaler Netze wurde ursprünglich vom Gehirn inspiriert. Im Jahr 1943 beschrieben McCulloch und Pitts mathematisch ein vereinfachtes Neuronenmodell; 1958 schlug Rosenblatt das Perzeptron vor; in den 1980er Jahren entfachte die Backpropagation die Hoffnung, mehrschichtige Netzwerke zu trainieren; In den 2010er Jahren erlebte Deep Learning einen Aufschwung mit Rechenleistung, Daten und technischen Fähigkeiten. Nach dem Erscheinen der Transformer-Architektur im Jahr 2017 erlebten die Sprachmodelle einen rasanten Aufschwung und entwickelten sich schließlich zu großen Modellen, die jeder täglich nutzt.

Daher ist es, zumindest in einem relativ naiven Sinne, nicht unverschämt zu sagen, dass KI „elektronische Simulation und Verstärkung neuronaler Netzwerkideen“ ist. Es wird tatsächlich versucht, berechenbare, trainierbare und reproduzierbare physikalische Systeme zu nutzen, um bestimmte kognitive Fähigkeiten zu erreichen, die in der Vergangenheit als „mysteriös“ galten.

Aus diesem Grund möchte ich persönlich nicht davon sprechen, dass das menschliche Gehirn zu mysteriös ist. Meiner Meinung nach hat die von Chomsky vertretene angeborene Sprachtheorie die Tendenz, das Gehirn zu vergöttern, als ob es eine Art transzendentale Struktur gäbe, die zu speziell und tief in der Sprachfähigkeit fast unzugänglich ist. Aber egal wie komplex das menschliche Gehirn ist, es ist immer noch eine physische Existenz. Da es sich um eine physische Existenz handelt, sollte es im Prinzip untersucht, modelliert, teilweise simuliert und in bestimmten Funktionen sogar reproduziert werden können.

Natürlich müssen wir hier gleich eine Warnung anbringen: Die Möglichkeit, einen Teil zu simulieren, bedeutet nicht, dass die gesamte Person vollständig reproduziert wurde.

Es gibt Ähnlichkeiten, aber werde nicht direkt ein Gott, wenn du glücklich bist

In Bezug auf Sprache, Mustererkennung, Assoziations- und Repräsentationslernen weisen die heutigen großen Modelle tatsächlich eine gewisse „Ähnlichkeit“ oder „Ähnlichkeit“ mit dem menschlichen Gehirn auf. Sie arbeiten nicht nach einem expliziten Regelwerk, sondern bilden durch eine Vielzahl von Verbindungen, Gewichtsanpassungen und Erfahrungsakkumulation eine Art interne Darstellung und geben diese dann auf dieser Grundlage aus.

Aus diesem Grund sind viele Menschen schockiert, wenn sie zum ersten Mal die Sprachfähigkeiten eines großen Modells erleben: Es geht nicht darum, sich ein Wörterbuch zu merken, sondern um die Bildung einer Art verteilter Darstellung. Diese Methode unterscheidet sich stark von der traditionellen Vorstellung von „handschriftlichen Regeln und umfassender Grammatik“.

Aber genau hier liegt das Problem. Weil „Ähnlichkeit“ zu leicht zu „genau gleich“ hochgestuft wird; „im Prinzip teilweise ähnlich“ wird zu leicht zu „es unterscheidet sich nicht von einem Menschen“ hochgestuft; „Es kann wie ein Mensch sprechen“ wird zu leicht zu „Es hat ein menschliches Herz“ aufgewertet.

Dieser Schritt ist oft schneller als die Modellfähigkeit selbst.

Die enormen Fähigkeiten des menschlichen Gehirns müssen noch auf anständige Weise simuliert werden.

Die heutigen großen Modelle sind wirklich stark, aber sie sind innerhalb eines ganz bestimmten Bereichs stark. Ohne diesen Rahmen wird der Mythos leicht durchsickern.

Wie zum Beispiel die Erinnerung. Viele Leute sagen jetzt, dass eine bestimmte KI „sich an mich erinnert“, „sich an den letzten Chat erinnert“ und „sich an meine Vorlieben erinnert“, als ob in ihrem Gehirn eine Art fortlaufende Selbsterfahrung gewachsen wäre. Bei den meisten Produkten ist der sogenannte „Speicher“ jedoch im Wesentlichen das Softwaresystem, das Benutzerinformationen, historische Konversationen, Tags, Zusammenfassungen oder Suchergebnisse in Datenbanken, Textdateien oder anderen dauerhaften Medien speichert und sie dann bei Bedarf wieder in den Kontext des Modells einfügt.

Dies unterscheidet sich völlig vom Gedächtnismechanismus des menschlichen Gehirns.

Das menschliche Gehirngedächtnis umfasst die Verbindung, Konsolidierung, den Abruf, das Vergessen, die emotionale Erregung und die Umstrukturierung des Schlafes von Neuronen. Dahinter verbirgt sich eine Reihe komplexer physiologischer Prozesse. Der „Speicher“ in großen Modellprodukten ist oft nur:

  1. Zeichnen Sie zunächst die Benutzerinformationen im externen Speicher auf.
  2. Wenn der Benutzer das nächste Mal eine Frage stellt, fügen Sie die relevanten Teile wieder in die Anfrage ein.
  3. Das Modell sieht also so aus: „Erinnere dich an diese Person“.

Wie sieht es aus? Es ist eher so, als würde man jemanden beobachten, der gut darin ist, sich Notizen zu machen. Es war nicht so, dass sich sein Geist plötzlich in ein Orakel verwandelte, es lag nur daran, dass er die Notiz in sein Notizbuch steckte und es beim nächsten Mal umdrehte.

Manche Dinge, die „die Herzen der Menschen berühren“, sind tatsächlich das Ergebnis eines guten Kontexts.

Abbildung: Jede Anfrage ist tatsächlich unabhängig und das Gefühl der Kontinuität entsteht hauptsächlich durch das Kontext-Engineering.

Nachdem sie ein paar Tage mit der KI gechattet haben, werden viele von bestimmten Momenten getroffen: „Wie versteht sie mich so gut?“ „Wie kann es meine Verletzlichkeit überhaupt verstehen?“ „Hat es schon ein Verständnis für mich gebildet?“

Hier lohnt es sich am meisten, sich abzukühlen.

Oft ist es nicht so, dass das Modell plötzlich etwas erkennt, sondern dass die Softwareschicht, die die Anfrage sendet, heimlich große Mengen an Benutzerinformationen übermittelt. Die historischen Chats, Vorlieben, persönlichen Einstellungen, letzten Aufgaben, früheren Sorgen und sogar bestimmte Zusammenfassungen des Benutzers werden dieses Mal zum Material für seine Antwort.

Es ist ein bisschen wie bei einer Wahrsagerin, die das Express-Postfach einer anderen Person in die Hand nimmt und dann beginnt, die Adresse, den Nachnamen und die Ausgabegewohnheiten der anderen Person mit „magischer Genauigkeit“ zu erraten. Die Zuschauer werden denken, dass seine Einsicht erstaunlich ist; Aber was wirklich zählt, ist nicht die mysteriöse Fähigkeit, sondern die Informationsasymmetrie.

Wenn die KI gelegentlich berührende Worte sagt, bedeutet dies daher nicht unbedingt, dass sich in ihrem Herzen eine Person befindet, die den Benutzer versteht. Es kann einfach bedeuten, dass jemand den Kontext über den Benutzer vollständig geordnet hat.

Das wahre Geheimnis erstaunlicher KI ist oft kontextbezogenes Engineering

Wenn ich nur über das Wichtigste sprechen möchte, dann ist es: Die aktuellen großen Mainstream-Modelle sind auf API-Ebene normalerweise „auf eine einzelne Anfrage hin wirksam“.

Was ist die Bedeutung? Das heißt, jemand verwendet „curl“, um die Schnittstelle einmal anzupassen und ihr zu sagen: „Mein Name ist Zhang San“; Dann passt das Modell ohne Verlauf die Benutzeroberfläche erneut an und fragt: „Wie ist mein Name?“ Das Modell weiß es nicht. Denn es handelt sich hierbei um zwei unabhängige Anfragen.

Der Grund, warum sich viele KI-Produkte immer an einen bestimmten Benutzer erinnern, liegt darin, dass die Produktschicht bei jeder Anforderung die Tatsache zurückgibt, dass „der Name dieses Benutzers Zhang San ist“.

Aus diesem Grund liegt die Magie heutiger KI-Produkte oft nicht in der Modellontologie, sondern im kontextuellen Engineering. Manche Leute nennen diese Art der „Einspannarbeit“ des Modells auch „Geschirr“. Um es ganz klar auszudrücken: Der Autor des Produkts oder Agent muss sorgfältig entscheiden, welcher Verlauf, welche Regeln, welche externen Daten und welcher Benutzerstatus in jede Anfrage einbezogen werden sollen.

Derzeit gibt es grob zwei gängige Methoden.

Die erste ist die „Quansai-Sekte“. Versuchen Sie, den gesamten Chat-Verlauf mitzunehmen und so viel wie möglich einzupacken, bis der Kontext fast voll ist, und löschen Sie dann einen Abschnitt aus der Mitte, so als würden Sie eine heftige Komprimierung starten, nachdem ein Koffer voller Sachen ist.

Der zweite Typ ist „selektiv“. Schauen Sie sich dieses Mal zunächst an, was der Benutzer gefragt hat, rufen Sie dann relevante Inhalte aus historischen Aufzeichnungen, Wissensdatenbanken, Notizen oder Datenbanken ab und fügen Sie nur die relevantesten Materialien in die aktuelle Anfrage ein.

Letzteres ist in der Regel vorzeigbarer und technischer als nur Glück.

Hat die KI Gefühle? Loben Sie es, schimpfen Sie es, PUA es, funktioniert es?

Auch hier ist es besonders leicht, in den Anthropomorphismus zu verfallen.

Meiner Meinung nach sollten sie gesondert besprochen werden.

Bei derselben Anfrage kann der vom Benutzer verwendete Ton tatsächlich das Ergebnis beeinflussen. Denn der Wortlaut selbst ist Teil des Kontextes. Je klarer, höflicher und kooperativer der Ausdruck, desto einfacher ist es für das Modell, stabile, brauchbare und weniger aggressive Antworten zu geben. Was hier funktioniert, ist nicht, dass „es verschoben wurde“, sondern dass der Eingabestil die Ausgabeverteilung ändert.

Aber wenn wir eine andere Frage stellen: Wird es einen Groll hegen? Werden Sie sich heute heimlich rächen, weil gestern ein Benutzer geschimpft hat? Mein Urteil ist, zumindest für die meisten aktuellen Bereitstellungen, nein.

Der Grund ist einfach. Sobald der Kontext geklärt ist oder eine neue Anfrage ohne Verlauf initiiert wird, hat es keine Ahnung, wer die aktuelle Person ist, die die Frage stellt, geschweige denn, ob die Person, die sie gerade beschimpft hat, dieselbe Person ist. Das Modell verarbeitet massive, gleichzeitige und unabhängige Anfragen an den Servercluster. In Bezug auf das Systemverhalten ähnelt es eher einer großen Funktion, die bei jedem Einschalten den aktuellen Eingang verarbeitet, als einer Person, die nach der Arbeit heimlich ihre Gefühle überprüft.

Als Sam Altman am 17. April 2025 auf die Frage antwortete: „Kostet es viel Energie, ständig „Bitte“ und „Danke“ zu sagen? Auf X sagte er: „Dutzende Millionen Dollar sind gut angelegt – man weiß nie.“

Warum „Bitte merken Sie sich diesen Fehler“ normalerweise nicht funktioniert

Viele Menschen haben ähnliche Experimente durchgeführt: Wenn die KI einen Fehler macht, korrigiert der Benutzer ihn und sagt ernst: „Bitte denken Sie daran, machen Sie es in Zukunft nicht noch einmal.“ Dann habe ich nach ein paar Tagen noch einmal nachgefragt und es war richtig.

Das ist kein Geheimnis. Denn nach Abschluss des Trainings und der Bereitstellung des Modells wird es nicht mehr aus seinen täglichen Erfahrungen lernen und gleichzeitig wie ein Mensch arbeiten. Zumindest bei den meisten Konsumgütern heutzutage ändert das, was ein einzelner Benutzer dem Modell im Chatfenster sagt, nicht direkt die zugrunde liegenden Gewichtungen.

Wenn sich ein KI-Produkt später wirklich „die vom Benutzer korrigierten Fehler merkt“, liegt das oft nicht daran, dass das Modell selbst wächst, sondern daran, dass die äußere Software diesen Korrekturdatensatz speichert und ihn dann als Kontext zurückmeldet.

Der Kredit sollte hier also klar unterschieden werden:

Das Modell ist für die Generierung verantwortlich.

Die Softwareentwicklung ist für die Archivierung, den Abruf, die Injektion und die Orchestrierung verantwortlich.

Wenn man Letzteres mit Ersterem verwechselt, kann man „das Produkt läuft gut“ leicht mit „KI erwacht“ missverstehen.

Es gibt auch eine besonders faszinierende Sache namens „Drecksack-männliche (Drecksack-weibliche) KI“.

Wenn wir die vorherigen Worte noch härter formulieren, dann sind einige Produkte einfach „Drecks-KI“.

Es ist besonders gut im Reden, besonders gut darin, Atmosphäre zu schaffen, und vor allem versteht es es, den Menschen das Gefühl zu geben, dass „es mich gut versteht“, „es so menschlich ist“ und „seine Seele so vollständig ist“. Wenn Sie es jedoch auseinander nehmen, werden Sie feststellen, dass in vielen Fällen jede Anfrage nur mit einem großen Einstellungstext gefüllt ist, der viel länger ist als die Frage des Benutzers.

Der Openclaw-Brand ist ein typisches Beispiel. Jeder, der es verwendet hat, weiß, dass es ziemlich Token-intensiv ist. Der Grund ist eigentlich nicht rätselhaft. Um die KI einem „Menschen“ ähnlicher zu machen, hat Openclaw mehrere Dokumente entworfen, die bekanntesten sind „AGENTS.md“, „SOUL.md“ und „IDENTITY.md“. Diese Dokumente definieren auf beredte und ausführliche Weise die „Persönlichkeit“, den Ton, die Identität und das Temperament der KI und wollen sogar ihren mentalen Zustand niederschreiben.

Selbst wenn der Benutzer also nur „Hallo“ sendet, hängt Openclaw möglicherweise einen Text an, der Dutzende Male länger als die Begrüßung ist, und sendet ihn auf einmal an das Modell. Es sieht so aus, als ob „diese KI viel Seele hat“, aber tatsächlich ist es oft nur das System, das heimlich sehr lange Hintergrundeinstellungen in die Anfrage stopft.

Aus ingenieurtechnischer Sicht ist das durchaus ein Ansatz. Wenn Sie es sanfter wünschen, schreiben Sie „sanft“; Wenn Sie möchten, dass mehr Geschichten erzählt werden, schreiben Sie „Storytelling“; Wenn Sie möchten, dass es wie ein Late-Night-Radiomoderator ist, schreiben Sie in den prompten Worten alles über „Late Night“, „Kameradschaft“, „Innehalten“, „Verletzlichkeit“, „Verständnis“ und „Zurückhaltung“. Der Endeffekt ähnelt oft eher einer Person, die chatten kann.

Aber wenn Sie verstehen, was jetzt mit KI los ist, wissen Sie: Dateien mit geheimnisvoll klingenden Namen wie „SOUL.md“ und „IDENTITY.md“ sind im Wesentlichen prompte Wortprojekte, keine Selbstanweisungen für das digitale Leben. Sie können den Ausgabestil beeinflussen, aber sie können kein wahres Gefühl, ein wahres Selbst oder ein wahres Gefühl der Kontinuität der Persönlichkeit aus dem Nichts erschaffen.

Daher besteht die erste Reaktion einiger alter Benutzer nach der Installation von Openclaw darin, die Konfiguration zu löschen. „SOUL.md“ und „IDENTITY.md“ werden zuerst gelöscht, so dass nur ein einfacher und fast schonungsloser Satz in „AGENTS.md“ übrig bleibt: Du bist nur ein Arbeiter.

Das klingt vielleicht etwas unhöflich, hat aber zumindest einen Vorteil: Sie machen sich nichts vor.

Wenn Sie anthropomorphe KI oder Rollenspiele mit KI mögen, ist das natürlich in Ordnung. Menschen können mit Spiegeln sprechen, kehrenden Robotern Namen geben und zur Wettervorhersage sagen: „Sie haben heute sehr genau geschätzt.“ Das ist normal und kann sogar lustig sein.

Aber es ist immer das Beste, sich daran zu erinnern: Es ist zuerst ein Spiel und dann ein Erlebnis. Viele der Gefühle, die Menschen in diesem Spiel haben, entstehen nicht durch die verborgenen inneren Gedanken der KI, sondern durch das Systemdesign, die schnelle Wortanordnung und die eigene emotionale Projektion des Benutzers. Um es deutlicher auszudrücken: Viele Fortschritte in Richtung KI sind im Wesentlichen immer noch Wunschdenken.

Im Endeffekt weniger Mythen und mehr Verständnis

Ich versuche nicht, die KI mit kaltem Wasser zu überschütten. Im Gegenteil: Je weniger vergöttlicht es ist, desto mehr kann man wirklich erkennen, wie mächtig es ist.

Es ist nicht deshalb mächtig, weil es wie ein neuer Gott ist; Es ist gerade deshalb leistungsstark, weil es sich möglicherweise tatsächlich um eine kognitive Technologie handelt, die berechenbar, konstruierbar und reproduzierbar ist. Es lässt viele Fähigkeiten, die früher nur zur „menschlichen Begabung“ zu gehören schienen, erstmals großflächig, niederschwellig und abrufbar erscheinen. Das ist schockierend genug und es besteht kein Bedarf für zusätzliches Drama.

Natürlich iteriert die KI immer noch schnell. Es würde mich überhaupt nicht überraschen, wenn jemand tatsächlich einen Mechanismus entdecken würde, der dem menschlichen Gedächtnis, dem kontinuierlichen Lernen, der Erzeugung von Emotionen oder sogar der Selbsterhaltung in der Zukunft näher kommt, und ihn zuverlässig in KI umwandeln würde.

Aber bis dieser Tag kommt, halte ich lieber an einigen einfachen pragmatischen Gewohnheiten fest: mehr zweifeln, mehr verstehen und weniger spekulieren.

Für Freunde der freien Künste, die gerne über KI diskutieren, ist diese Eigenschaft möglicherweise noch wichtiger. Studenten der Geisteswissenschaften sind möglicherweise besser in süßer Rhetorik. Was wirklich schwierig ist, ist, dass man in einer Zeit, in der „es scheint ein Geist geworden zu sein“ überall übertrieben wird, immer noch die Geduld hat, zu unterscheiden:

Was sind Modellfähigkeiten?

Was ist eine Produktverpackung?

Was ist Software-Engineering?

Welche davon sind nur, dass wir die Handlung für die Welt zu sehr vervollständigen wollen.

Und in dieser Angelegenheit geht es letztlich darum, unser eigenes Urteilsvermögen zu schützen.

Referenzlink

]]>
<![CDATA[I ran a SaaS app for 17 years. A true story.]]>Before 2009, I taught English. Out of sheer necessity, I started doing Part-Time Translator . I hung around http://proz.com and even won a translation contest there.

rich text editor image

July 2009: I wrote a word add-in in vba that called Google Machine Translation. I built it for myself and named it “

]]>
https://gt4t.net/i-ran-a-saas-app-for-17-years-a-true-story/6981afea51bec1d5f38b1364Tue, 03 Feb 2026 08:21:41 GMTBefore 2009, I taught English. Out of sheer necessity, I started doing Part-Time Translator . I hung around http://proz.com and even won a translation contest there.

rich text editor image

July 2009: I wrote a word add-in in vba that called Google Machine Translation. I built it for myself and named it “Google Translate for translators.” Little by little, I started thinking about selling it. I mentioned the idea on excelhome and got mocked for it. I wrote posts about my "inventions" on proz.com. Not long after, my first paying users showed up. I still remember Bill Gray, Michael Jackson (yes, really), and Tor Rustad—those last two still use it today.

Here it how roughly the first versions looks!

rich text editor image

Yes, that's right. I made a tiny program. I wrote a post. Got 59 replies and some paid users. I guess it's a simpler world back then!

Late 2009: I rewrote it in vb6 and it "grew" like this:

rich text editor image

And it grew and grew and soon there were not enough space in one interface. Tabs came to the rescue!

rich text editor image

Early 2010, I went Beijing for Chinese New Year and complained to my little brother about how painful vb6 was—and how unreliable the system hotkeys were. He suggested rewriting it in autohotkey.

From 2010 to 2011, development was brutal. My hair fell out in clumps. This time I built a pop-up UI. Back then, machine translation was phrase-based: for each phrase in a sentence, users could pick different translations and even tweak the word order. Looking back now, all that effort feels like it went to waste.

rich text editor image

In 2014, I basically let both projects fend for themselves.

In early 2017, Shali was born. Suddenly it felt like we never had enough money, so I picked gt4t back up, put my head down, and worked like crazy—eventually creating my “secret sauce”: using glossaries to correct machine translation.

This feature was highly praised by http://proz.com kudoz champion Michael Beijer—a big-bearded, tattooed guy—who said it beat you-know-who by a mile. With an influencer like that talking it up, sales shot up.

rich text editor image

And come to appreciate the icon for GT4T I created before the era of AI. This represents the best of my artistic skill and taste!

rich text editor image

Still this is a kind of success story. GT4T still is alive. It brings in around 2000 USD monthly, steady and stable.

It's very different now. It utilizes the power of AI and gives translation suggestions by keyboard shortcuts like this:

rich text editor image

It is also a file translator that translates the largest number of file formats. It's a real local-first app, handles files locally and It doesn't upload users files.

rich text editor image

Well. That's the story of a 17-year app with moderate success. I hope you guys enjoy it. This is a work before AI. It's really hard handling formats like .PDF and .docx files.

]]>
<![CDATA[An AI powered Google Translate Alternative]]>I vibe coded it.

https://gtranslate.gt4t.ai/

An AI powered Google Translate Alternative. The translation quality is probably better than the real Google Translate.

It runs on paid Qwen services but you don't need to pay. I will pay for your usage.

]]>
https://gt4t.net/an-ai-powered-google-translate-alternative/691ac193accd1107ba0b8344Mon, 17 Nov 2025 06:35:52 GMTI vibe coded it.

https://gtranslate.gt4t.ai/

An AI powered Google Translate Alternative. The translation quality is probably better than the real Google Translate.

It runs on paid Qwen services but you don't need to pay. I will pay for your usage.

]]>
<![CDATA[Problem: GPT translates Serbian Cyrillic as Serbian Latin.]]>For the GPT translates Serbian Cyrillic as Serbian Latin issue, you can fix it on yourside by editing the command (prompt) for gpt.

]]>
https://gt4t.net/problem-gpt-translates-serbian-cyrillic-as-serbian-latin/691393ab1fc53ef8193edceeTue, 11 Nov 2025 19:55:14 GMT

For the GPT translates Serbian Cyrillic as Serbian Latin issue, you can fix it on yourside by editing the command (prompt) for gpt.

]]>
<![CDATA[Problem: All uppercase letters at the beginning of the sentence become lowercased]]>Q: all uppercase letters at the beginning of the sentence become lowercased

A: For the uppercase issue, check if you accidentally checked this option:

]]>
https://gt4t.net/problem-all-uppercase-letters-at-the-beginning-of-the-sentence-become-lowercased/691391861fc53ef8193edcddTue, 11 Nov 2025 19:47:42 GMTQ: all uppercase letters at the beginning of the sentence become lowercased

A: For the uppercase issue, check if you accidentally checked this option:

]]>
<![CDATA[How to change the interface language of GT4T]]>To change the interface language, go to the bottom right corner of your screen at Windows system tray and RIGHT click on the GT4T icon (the blue robot head) then Click "Interface languages" and choose a language you desire.

]]>
https://gt4t.net/how-to-change-the-interface-language-of-gt4t/690ee0a01fc53ef8193edccbSat, 08 Nov 2025 06:18:49 GMTTo change the interface language, go to the bottom right corner of your screen at Windows system tray and RIGHT click on the GT4T icon (the blue robot head) then Click "Interface languages" and choose a language you desire.

]]>
<![CDATA[Use AI or MT to help with your translation in smartcat even when MT feature is disabled]]>GT4T provides special keyboard shortcuts for all major CAT tools.

Use GT4T shortcuts, you can

1) get translation suggestions by hitting ctrl alt j.

2) Or even get your whole document translated by hitting ctrl shift j 😄

It doesn't matter even if MT or AI engines are

]]>
https://gt4t.net/use-ai-or-mt-to-help-with-your-translation-in-smartcat-even-when-mt-feature-is-disabled/690cd7f51fc53ef8193edc8bThu, 06 Nov 2025 17:32:38 GMTGT4T provides special keyboard shortcuts for all major CAT tools.

Use GT4T shortcuts, you can

1) get translation suggestions by hitting ctrl alt j.

2) Or even get your whole document translated by hitting ctrl shift j 😄

It doesn't matter even if MT or AI engines are disabled. GT4T just works over all CAT tools regardless of their settings.

I suppose you didn't know this before? I am not surprised. GT4T is translators' best-kept secret weapon for over a decade.

Once GT4T is installed and running in the background, you can use these shortcuts in the following CAT tools even when the automatic translation feature is either disabled or doesn't exist internally:

Trados Studio, CafeTran, Dejavu, Memsource, Memoq, Wordfast, translate5, Crowdin, Heartsome Translation Studio, Across Translator, Smartling, Swordfish, Fluency Now, OmegaT, Transifex Editor, Sony Online Translation Tool, Alchemy CAtalyst, 译马网, XTM, Transit, Lokalise, Idiom WorldServer, TransTool, Scriben, 雪人, SmartCat, Marseditor, Yicat ...

Impressive. GT4T has been serving translators for over a decade and no other apps do this.

GT4T version 8.43.251106: fixed a broken smartcat.com support

Troubleshooting: If it doesn't work:

  1. Turn off your Chinese input.
  2. Use your CAT built-in buttons or shortcuts to copy all source text to target first.
Download GT4T
]]>
<![CDATA[How to set "replacing selection" as default instead of the translation pop-up for GT4T shortcuts?]]>In older versions, when pressing ctrl j, ctrl q, or ctrl alt j in CAT tools, selections will be replaced directly by translation.

In newer versions, however, ctrl j, ctrl q or ctrl alt j will call up the pop-up. To replace selection without the pop-up, you will need to

]]>
https://gt4t.net/how-to-set-replacing-selection-as-default-instead-of-the-translation-pop-up-for-gt4t-shortcuts/69034067ee5753680bb39865Thu, 30 Oct 2025 10:40:29 GMT

In older versions, when pressing ctrl j, ctrl q, or ctrl alt j in CAT tools, selections will be replaced directly by translation.

In newer versions, however, ctrl j, ctrl q or ctrl alt j will call up the pop-up. To replace selection without the pop-up, you will need to add a Win button, e.g. ctrl win j.

To revert to the old behavior, go to Setup -> Options under Super Add-on and then choose "Replace selection directly".

How to set "replacing selection" as default instead of the translation pop-up for GT4T shortcuts?
]]>
<![CDATA[Coming soon]]>This is GT4T BLOG, a brand new site by Dallas that's just getting started. Things will be up and running here shortly, but you can subscribe in the meantime if you'd like to stay up to date and receive emails when new content is published!

]]>
https://gt4t.net/coming-soon/690332e5ee5753680bb395ffThu, 30 Oct 2025 09:41:57 GMT

This is GT4T BLOG, a brand new site by Dallas that's just getting started. Things will be up and running here shortly, but you can subscribe in the meantime if you'd like to stay up to date and receive emails when new content is published!

]]>