<![CDATA[GT4T BLOG]]>https://gt4t.net/https://gt4t.net/favicon.pngGT4T BLOGhttps://gt4t.net/Ghost 6.5Fri, 17 Apr 2026 08:10:51 GMT60<![CDATA[AI에 대한 인간의 망상은 AI 환각보다 더 나쁩니다.]]>때때로 나는 AI의 가장 큰 "환상"은 그것이 진지하게 말도 안 되는 말을 한다는 것이 아니라 우리가 AI 주위에 형이상학적인 우주 전체를 상상했다는 것이라고 생각합니다.

]]>
https://gt4t.net/ko/human-delusions-about-ai-are-worse-than-ai-hallucinations/f9b01052c3aaa27a7d7b8d26Fri, 17 Apr 2026 08:10:51 GMT그림: AI를 신격화하는 인간의 상상력과 AI가 실제로 작동하는 방식

때때로 나는 AI의 가장 큰 "환상"은 그것이 진지하게 말도 안 되는 말을 한다는 것이 아니라 우리가 AI 주위에 형이상학적인 우주 전체를 상상했다는 것이라고 생각합니다.

인간은 자신이 잘 이해하지 못하는 일에 직면할 때 종종 안정된 접근 방식을 취합니다. 먼저 마음을 정한 다음 낭만적으로 생각합니다. 그들은 먼저 그들을 의인화한 다음 신격화합니다. 불꽃은 요정으로 생각되고, 천둥과 번개는 섭리로 생각됩니다. 알고리즘이 괜찮은 문장 두 개를 작성할 수 있게 되면 어떤 사람들은 전자 영혼이 이미 서버실에 살고 있는지 즉시 궁금해할 것입니다.

이것은 실제로 매우 정상입니다. 인간의 두뇌는 세상에 줄거리를 추가하도록 구성되어 있습니다. 문제는 우리가 마음을 정할 수 있다는 것이 아니다. 문제는 우리의 생각이 너무 매끄럽게 되면 "~처럼 보인다"를 "본질적으로 그렇다"로 착각하기 쉽다는 것입니다.

AI의 경우 AI 자체가 말도 안 되는 말을 할 때보다 인간의 이런 경향이 더욱 강하다. 기껏해야 AI는 약간의 환각에 불과합니다. AI에 대한 인간의 환각은 한 마음 속에 최대 10,000 단어까지 채울 수 있고 감정도 포함할 수 있는 전체적인 세계관인 경우가 많습니다.

약간의 실용주의는 인문학 커뮤니티에 특히 중요합니다.

나는 모든 사람에게 CUDA를 배우고, 환경을 구성하고, 행렬을 보고 파생 상품을 찾으라고 조언하고 싶지 않습니다. 저는 진실을 추구하는 것이 때로 매우 중요하다는 점을 말씀드리고 싶습니다. 특히 개념, 내러티브, 의미 및 설명을 사랑하는 인문학 커뮤니티에서는 더욱 그렇습니다.

인문학의 맥락에서는 완만하지만 위험한 미끄러운 경사가 발생할 가능성이 가장 높기 때문입니다. 단어는 아름답게 쓰여지고 문장은 움직이지만 결국 대상은 은밀하게 변경됩니다. 분명히 확률론적 모델이지만 영혼에 관한 것처럼 쓰여졌습니다. 분명히 소프트웨어 엔지니어링의 컨텍스트 조립이지만 "드디어 당신을 사랑하는 법을 배웠습니다"라고 말합니다. 분명히 작동하는 시스템 프롬프트 단어와 역사적 기록이지만 "AI가 정말로 당신을 기억합니다"처럼 포장되어 있습니다.

시적인 것에는 확실히 죄가 없습니다. 문제는 시가 판단을 대체한다면 로맨스는 오해의 소지가 있다는 것입니다.

그렇다면 이제 AI란 정확히 무엇일까요?

최대한 단순하면서도 왜곡되지 않은 버전부터 시작하겠습니다. 오늘날 모든 사람이 접하는 대규모 모델은 본질적으로 신경망에서 영감을 얻고 대규모 데이터를 통해 훈련된 일종의 통계 모델입니다. 이는 칩과 서버에서 실행되고, 입력을 읽고, 매개변수와 컨텍스트를 결합하고, "다음으로 가장 적합한 토큰이 무엇인지" 지속적으로 예측합니다.

여기서 중요한 점은 "다음 단어를 예측하다"라는 문구가 신비롭다는 것이 아니라 실제로는 전혀 신비하지 않다는 것입니다. 모델은 구름 속에 웅크려 조용히 삶에 대해 생각하는 작은 사람이 아니라, 극도로 거대한 기능에 가깝습니다. 사람들은 입력을 주고 학습 중에 형성된 매개변수 구조에 따라 출력을 생성합니다.

이 문제를 좀 더 현실적으로 표현하면, "이해한 후에 말하라"는 것이 아니라, "엄청난 양의 경험을 압축한 후, 현재 맥락에서 가장 이해에 가까운 반응을 만들어 내는 것"입니다. 이것은 그것이 아무것도 할 수 없다는 것을 의미하지 않습니다. 오히려 그것은 이미 매우 강력합니다. 그러나 강력하다는 것이 그것이 신비하다는 것을 의미하지는 않습니다.

신경망은 왜 항상 사람들로 하여금 인간의 두뇌를 생각하게 만드는가?

그림: 신경망 개발의 타임라인

계속해서 추구하다 보면 'AI와 인간의 두뇌는 서로 닮았는가?'라는 질문을 발견하게 될 것이다. "정확히 동일하다"라고 말할 수도 없고 "그것과 아무 관련이 없다"고도 할 수 없습니다.

현대 신경망의 경로는 원래 뇌에서 영감을 받았습니다. 1943년에 McCulloch와 Pitts는 단순화된 뉴런 모델을 수학적으로 설명했습니다. 1958년에 Rosenblatt는 퍼셉트론을 제안했습니다. 1980년대에는 역전파가 다층 신경망 훈련에 대한 희망을 다시 불러일으켰습니다. 2010년대에는 컴퓨팅 능력, 데이터, 엔지니어링 역량과 함께 딥 러닝이 급증했습니다. 2017년 Transformer 아키텍처가 등장한 이후 언어 모델이 급증하여 마침내 모든 사람이 매일 사용하는 대형 모델로 성장했습니다.

그러므로 적어도 상대적으로 순진한 의미에서 AI는 "신경망 아이디어의 전자적 시뮬레이션이자 증폭"이라고 말하는 것이 터무니없는 것은 아닙니다. 실제로 과거에 "신비한" 것으로 간주되었던 특정 인지 능력에 접근하기 위해 계산 가능하고 훈련 가능하며 재현 가능한 물리적 시스템을 사용하려고 노력하고 있습니다.

이것이 바로 제가 개인적으로 인간의 뇌가 너무 신비롭다고 말하는 것을 좋아하지 않는 이유입니다. 내 생각에는 촘스키로 대표되는 언어의 타고난 이론은 마치 언어능력의 깊숙한 곳에 너무 특별하고 거의 접근할 수 없는 일종의 초월적 구조가 있는 것처럼 뇌를 신격화하는 경향이 있는 것 같다. 그러나 인간의 두뇌가 아무리 복잡하더라도 그것은 여전히 ​​물리적인 존재입니다. 물리적인 존재이기 때문에 원칙적으로 연구, 모델링, 부분적으로 시뮬레이션이 가능해야 하며 특정 기능에서는 재현까지 가능해야 합니다.

물론 여기에 즉시 주의 사항을 추가해야 합니다. 일부를 시뮬레이션할 수 있다고 해서 전체 인물이 완전히 재현되었다는 의미는 아닙니다.

비슷한 점이 있지만 행복할 때 직접 신이 되지는 마세요.

언어, 패턴 인식, 연관 및 표현 학습 측면에서 오늘날의 대형 모델은 인간 두뇌와 어느 정도 "유사성" 또는 "유사성"을 갖고 있습니다. 명시적인 룰북에 따라 작동하는 것이 아니라 수많은 연결, 가중치 조정 및 경험 축적을 통해 일종의 내부 표현을 형성하고 이를 기반으로 출력됩니다.

이것이 바로 대규모 모델의 언어 기능을 처음 경험할 때 많은 사람들이 충격을 받는 이유입니다. 이는 사전을 암기하는 것이 아니라 일종의 분산 표현을 형성하는 것입니다. 이 방법은 "손으로 쓴 규칙과 철저한 문법"이라는 전통적인 상상과는 매우 다릅니다.

그런데 문제는 바로 여기에 있습니다. "유사성"은 "완전히 동일함"으로 너무 쉽게 업그레이드되기 때문입니다. "원칙적으로 부분적으로 유사하다"는 것은 "인간과 다르지 않다"로 너무 쉽게 업그레이드됩니다. "인간처럼 말할 수 있다"는 것은 "인간의 마음을 가지고 있다"로 너무 쉽게 업그레이드됩니다.

이 단계는 모델 기능 자체보다 빠른 경우가 많습니다.

인간 두뇌의 광대한 능력은 아직 적절한 방식으로 시뮬레이션되지 않았습니다.

오늘날의 대형 모델은 정말 강력하지만 상당히 특정 범위 내에서 강력합니다. 이 범위가 없으면 신화가 쉽게 누출될 것입니다.

기억과 같은. 많은 사람들은 이제 특정 AI가 "나를 기억한다", "마지막 채팅을 기억한다", "내 선호도를 기억한다"고 말한다. 마치 그 AI의 두뇌가 일종의 지속적인 자기 경험을 통해 성장한 것처럼 말이다. 그러나 대부분의 제품에서 소위 "메모리"는 본질적으로 사용자 정보, 과거 대화, 태그, 요약 또는 검색 결과를 데이터베이스, 텍스트 파일 또는 기타 영구 미디어에 저장한 다음 적절할 때 모델의 컨텍스트에 다시 삽입하는 소프트웨어 시스템입니다.

이는 인간 두뇌의 기억 메커니즘과 완전히 다릅니다.

인간의 뇌 기억에는 뉴런 연결, 통합, 검색, 망각, ​​정서적 각성 및 수면 재구성이 포함됩니다. 그 뒤에는 일련의 복잡한 생리학적 과정이 있습니다. 대형 모델 제품의 "메모리"는 종종 다음과 같습니다.

  1. 먼저, 외부 저장소에 사용자 정보를 기록합니다.
  2. 다음에 사용자가 질문을 하면 관련 부분을 다시 요청에 넣으세요.
  3. 그래서 모델은 "이 사람을 기억하세요"처럼 보입니다.

그것은 어떻게 생겼나요? 메모를 잘하는 사람을 보는 것에 가깝습니다. 그의 마음이 갑자기 신탁으로 변한 것이 아니라, 단지 그 노트를 노트에 넣고 다음 번에 뒤집어 놓았을 뿐이었다.

"사람들의 마음을 감동시키는" 어떤 것들은 사실 좋은 맥락의 결과입니다.

예시: 각 요청은 실제로 독립적이며 연속성은 주로 컨텍스트 엔지니어링에서 비롯됩니다.

AI와 며칠 동안 대화를 나눈 후, 많은 사람들은 "어떻게 저를 그렇게 잘 이해하는 걸까요?"라는 특정 순간에 부딪히게 될 것입니다. "내 취약점을 어떻게 이해할 수 있습니까?" "이미 나에 대한 이해가 형성되었나요?"

여기서 식히는 것이 가장 가치가 있습니다.

모델이 갑자기 뭔가를 깨닫는 것이 아니라, 요청을 보내는 소프트웨어 계층이 사용자의 정보 중 상당량을 비밀리에 전달하는 경우가 많습니다. 사용자의 채팅 기록, 선호도, 개인 설정, 최근 작업, 이전 고민, 심지어 특정 요약까지 이번에는 답변의 자료가 됩니다.

그것은 마치 다른 사람의 택배 상자를 집어들고 그 사람의 주소와 성, 소비 습관을 '마법의 정확성'으로 추측하기 시작한 점쟁이와 비슷합니다. 구경꾼들은 그의 통찰력이 놀랍다고 생각할 것입니다. 하지만 정말 중요한 것은 신비한 능력이 아니라 정보의 비대칭성입니다.

따라서 AI가 가끔 감동적인 말을 한다고 해서 반드시 사용자를 이해하는 사람이 마음속에 있다는 의미는 아닙니다. 이는 누군가가 사용자에 대한 컨텍스트를 완전히 정리했다는 의미일 수도 있습니다.

놀라운 AI의 진짜 비결은 상황에 맞는 엔지니어링인 경우가 많습니다.

가장 중요한 것에 대해 이야기하고 싶다면 현재 주류 대형 모델은 일반적으로 API 수준에서 "단일 요청 효과적"이라는 것입니다.

무슨 뜻인가요? 즉, 누군가 curl을 사용하여 인터페이스를 한 번 조정하고 "내 이름은 Zhang San입니다"라고 말합니다. 그런 다음 아무런 기록도 없이 모델은 인터페이스를 다시 조정하고 "내 이름이 무엇입니까?"라고 묻습니다. 모델은 모릅니다. 왜냐하면 이것은 두 개의 독립적인 요청이기 때문입니다.

많은 AI 제품이 항상 특정 사용자를 기억하는 것처럼 보이는 이유는 제품 계층이 요청될 때마다 "이 사용자의 이름은 Zhang San"이라는 사실을 다시 가져오기 때문입니다.

이것이 오늘날 AI 제품의 마법이 종종 모델 온톨로지가 아닌 상황별 엔지니어링에서 발견되는 이유입니다. 어떤 사람들은 이런 종류의 모델을 '활용'하는 작업을 '하네스'라고 부르기도 합니다. 직설적으로 말하면 제품 또는 에이전트 작성자는 각 요청에 어떤 기록, 규칙, 외부 데이터, 사용자 상태를 포함할지 신중하게 결정해야 합니다.

현재 일반적으로 사용되는 방법은 두 가지 정도입니다.

첫 번째는 "Quansai Sect"입니다. 전체 채팅 기록을 가져오고 컨텍스트가 거의 가득 찰 때까지 최대한 많이 입력한 다음 중간에서 섹션을 삭제하십시오. 마치 여행 가방에 물건이 가득 차면 폭력적으로 압축을 시작하는 것과 같습니다.

두 번째 유형은 "선택적"입니다. 먼저 사용자가 이번에 요청한 내용을 살펴본 후 기록, 지식 베이스, 메모 또는 데이터베이스에서 관련 콘텐츠를 검색하고 가장 관련성이 높은 자료만 현재 요청에 넣습니다.

후자는 일반적으로 단지 행운이라기보다는 더 보기 좋고 공학적입니다.

AI가 감정을 갖고 있나요? 칭찬하고, 꾸짖고, PUA하면 효과가 있나요?

이곳은 특히 의인화에 빠지기 쉬운 또 다른 곳입니다.

제 생각에는 별도로 논의해야 한다는 것입니다.

동일한 요청에서 사용자가 사용하는 톤이 실제로 결과에 영향을 미칠 수 있습니다. 왜냐하면 표현 자체가 문맥의 일부이기 때문입니다. 표현이 더 명확하고 정중하며 협조적일수록 모델이 안정적이고 사용 가능하며 덜 공격적인 응답을 제공하기가 더 쉽습니다. 여기서 작동하는 것은 "이동되었다"는 것이 아니라 입력 스타일이 출력 분포를 변경한다는 것입니다.

하지만 또 다른 질문을 한다면, 그것이 원한을 품을 것인가? 어제 유저가 꾸짖었다고 오늘은 몰래 보복할 것인가? 내 평결은 적어도 대부분의 최신 배포에 대해서는 '아니요'입니다.

이유는 간단합니다. 컨텍스트가 지워지거나 이력이 없는 새로운 요청이 시작되면 방금 꾸짖은 사람이 동일인인지는커녕 현재 사람이 질문을 하고 있는지 전혀 알 수 없습니다. 이 모델은 서버 클러스터에서 대규모 동시 독립적 요청을 처리합니다. 시스템 동작 측면에서는 퇴근 후 몰래 감정을 복습하는 사람이라기보다는 전원을 켤 때마다 현재 입력에 따라 작동하는 대형 기능에 가깝다.

2025년 4월 17일, 샘 알트먼이 "항상 감사하다는 말을 하는 데 에너지가 많이 소모되나요?"라는 질문에 답했을 때. X에 대해 그는 "수천만 달러를 잘 썼다. 당신은 결코 알지 못한다"고 말했다.

"이 실수를 기억해주세요"가 일반적으로 작동하지 않는 이유

많은 사람들이 비슷한 실험을 해본 적이 있다. AI가 실수를 하면 사용자는 이를 바로잡고 "기억해 두라 앞으로는 이런 짓을 하지 말라"고 진지하게 말한다. 그러다가 며칠 뒤에 다시 물어보니 맞더라고요.

이것은 미스터리가 아닙니다. 훈련이 완료되고 모델이 배포된 후에는 인간처럼 작업하면서 일상적인 경험을 통해 계속 학습하지 않기 때문입니다. 적어도 오늘날 대부분의 소비자 제품에서는 단일 사용자가 채팅 창에서 모델에 말하는 내용이 기본 가중치를 직접 다시 작성하지 않습니다.

나중에 AI 제품이 실제로 "사용자가 수정한 오류를 기억"하는 경우는 모델 자체가 성장해서가 아니라 외부 소프트웨어가 이 수정 기록을 저장한 다음 컨텍스트로 피드백하기 때문인 경우가 많습니다.

따라서 여기서 크레딧은 명확하게 구별되어야 합니다.

모델은 생성을 담당합니다.

소프트웨어 엔지니어링은 보관, 검색, 삽입 및 조정을 담당합니다.

후자를 전자로 착각하면 '제품이 잘 된다'를 'AI가 깨어난다'로 오해하기 쉽다.

"쓰레기 남성 (쓰레기 여성) AI"라는 특히 흥미로운 것도 있습니다

이전 단어를 더욱 가혹하게 표현하면 일부 제품은 단순히 "쓰레기 AI"입니다.

특히 말을 잘하고, 특히 분위기를 조성하는 데 능숙하며, 특히 사람들에게 "나를 잘 이해한다", "너무 인간적이다", "영혼이 너무 완벽하다"고 느끼게 만드는 방법을 알고 있습니다. 하지만 분해해 보면 많은 경우 각 요청이 사용자의 질문보다 훨씬 긴 큰 설정 텍스트로 채워져 있다는 것을 알게 됩니다.

Openclaw 화재가 전형적인 예입니다. 그것을 사용해 본 사람이라면 누구나 이것이 매우 토큰 집약적이라는 것을 알고 있습니다. 그 이유는 사실 신비롭지 않습니다. AI를 "인간"처럼 만들기 위해 Openclaw는 여러 문서를 설계했는데 가장 눈에 띄는 문서는 'AGENTS.md', 'SOUL.md' 및 'IDENTITY.md'입니다. 이 문서들은 AI의 '성격', 말투, 정체성, 기질을 설득력 있고 길게 정의하고 심지어 AI의 정신 상태까지 적고 싶어합니다.

그래서 사용자가 단순히 'hello'만 보내도 Openclaw는 인사말보다 수십 배 긴 텍스트를 뒤에 붙여서 모델에게 한꺼번에 보낼 수도 있습니다. "이 AI에는 많은 영혼이 있습니다"처럼 보이지만 실제로는 시스템이 요청에 매우 긴 배경 설정을 비밀리에 채워넣는 경우가 많습니다.

엔지니어링 관점에서 볼 때 이는 확실히 접근 방식입니다. 좀 더 부드럽게 표현하고 싶다면 "부드럽다"라고 쓰세요. 좀 더 스토리텔링을 원하면 "스토리텔링"을 쓰십시오. 심야 라디오 진행자처럼 하고 싶다면 프롬프트 단어에 늦은 밤, 동지애, 멈춤, 연약함, 이해, 자제의 모든 것을 적으십시오. 최종 효과는 종종 채팅할 수 있는 사람과 비슷합니다.

그러나 현재 AI에서 무슨 일이 일어나고 있는지 이해한다면 'SOUL.md' 및 'IDENTITY.md'와 같이 신비롭게 들리는 이름을 가진 파일은 본질적으로 디지털 생활을 위한 자체 지침이 아닌 신속한 단어 프로젝트라는 사실을 알게 될 것입니다. 그것들은 출력 스타일에 영향을 미칠 수 있지만, 진정한 느낌, 진정한 자아, 또는 진정한 성격 연속성을 허공에서 창조할 수는 없습니다.

따라서 일부 기존 사용자는 Openclaw를 설치한 후 첫 번째 반응은 구성을 삭제하는 것입니다. SOUL.mdIDENTITY.md가 먼저 삭제되고 AGENTS.md에 간단하고 거의 무자비한 문장 하나만 남습니다: 당신은 단지 노동자입니다.

이것은 다소 무례하게 들릴 수도 있지만 적어도 한 가지 이점이 있습니다. 즉, 자신을 속이지 않는다는 것입니다.

의인화된 AI나 AI를 활용한 롤플레잉을 좋아한다면 물론 괜찮습니다. 인간은 거울과 대화할 수 있고, 청소 로봇에게 이름을 지어주고, 일기예보에 "오늘 정말 정확했어요."라고 말할 수 있습니다. 이는 정상적이며 재미있을 수도 있습니다.

하지만 항상 기억하는 것이 가장 좋습니다. 게임이 먼저이고 경험이 그 다음이라는 것입니다. 이 게임에서 사람들이 느끼는 감정의 대부분은 AI의 숨겨진 내면 생각에서 비롯되는 것이 아니라 시스템 설계, 신속한 단어 배열, 사용자 자신의 감정 투영에서 비롯됩니다. 좀 더 직설적으로 말하면, AI를 향한 많은 움직임은 여전히 ​​본질적으로 희망사항에 불과합니다.

최종 분석에서는 신화가 줄어들고 이해가 높아집니다.

나는 AI에게 찬물을 끼얹으려는 것이 아니다. 반대로, 그것이 덜 신격화될수록, 그것이 얼마나 강력한지 진정으로 더 많이 볼 수 있습니다.

그것은 새로운 신과 같아서 강력하기 때문이 아닙니다. 이는 실제로 계산 가능하고 엔지니어링 가능하며 재현 가능한 인지 기술일 수 있기 때문에 강력합니다. 과거에는 '인간의 재능'에만 속했던 많은 능력들이 처음으로 대규모, 낮은 임계치, 호출 가능한 방식으로 나타날 수 있게 해줍니다. 이것은 충분히 충격적이며 추가적인 드라마가 필요하지 않습니다.

물론 AI는 여전히 빠르게 반복되고 있습니다. 누군가가 미래에 인간의 기억, 지속적인 학습, 감정 생성, 심지어 자립에 더 가까운 메커니즘을 실제로 발견하고 이를 AI로 안정적으로 엔지니어링한다고 해도 나는 전혀 놀라지 않을 것입니다.

그러나 그날이 올 때까지 나는 여전히 몇 가지 단순하고 실용적인 습관, 즉 더 많이 의심하고, 더 많이 이해하고, 덜 추측하는 습관을 유지하는 것을 선호합니다.

AI에 대해 토론하고 싶어하는 인문계 친구들에게는 이 자질이 더욱 중요할 수 있습니다. 교양과목 학생들은 감미로운 수사에 더 능숙할 수도 있습니다. 정말 어려운 점은 '영령이 된 것 같다'는 말이 곳곳에서 과장되고 있는 시대에도 여전히 구별할 수 있는 인내심이 있다는 점이다.

모델 기능이란 무엇입니까?

제품 포장이란 무엇입니까?

소프트웨어 공학이란 무엇입니까?

우리가 세상에 대한 줄거리를 너무 많이 완성하고 싶다는 것은 어느 것입니까?

그리고 이 문제는 결국 우리 자신의 판단을 보호하는 문제입니다.

참고링크

]]>
<![CDATA[17년 동안 SaaS 앱을 운영한 실제 이야기]]>Before 2009, I taught English. Out of sheer necessity, I started doing Part-Time Translator . I hung around http://proz.com and even won a translation contest there.

rich text editor image

July 2009: I wrote a word add-in in vba that called Google Machine Translation. I built it for myself and named it “

]]>
https://gt4t.net/i-ran-a-saas-app-for-17-years-a-true-story/6981afea51bec1d5f38b1364Tue, 03 Feb 2026 08:21:41 GMTBefore 2009, I taught English. Out of sheer necessity, I started doing Part-Time Translator . I hung around http://proz.com and even won a translation contest there.

rich text editor image

July 2009: I wrote a word add-in in vba that called Google Machine Translation. I built it for myself and named it “Google Translate for translators.” Little by little, I started thinking about selling it. I mentioned the idea on excelhome and got mocked for it. I wrote posts about my "inventions" on proz.com. Not long after, my first paying users showed up. I still remember Bill Gray, Michael Jackson (yes, really), and Tor Rustad—those last two still use it today.

Here it how roughly the first versions looks!

rich text editor image

Yes, that's right. I made a tiny program. I wrote a post. Got 59 replies and some paid users. I guess it's a simpler world back then!

Late 2009: I rewrote it in vb6 and it "grew" like this:

rich text editor image

And it grew and grew and soon there were not enough space in one interface. Tabs came to the rescue!

rich text editor image

Early 2010, I went Beijing for Chinese New Year and complained to my little brother about how painful vb6 was—and how unreliable the system hotkeys were. He suggested rewriting it in autohotkey.

From 2010 to 2011, development was brutal. My hair fell out in clumps. This time I built a pop-up UI. Back then, machine translation was phrase-based: for each phrase in a sentence, users could pick different translations and even tweak the word order. Looking back now, all that effort feels like it went to waste.

rich text editor image

In 2014, I basically let both projects fend for themselves.

In early 2017, Shali was born. Suddenly it felt like we never had enough money, so I picked gt4t back up, put my head down, and worked like crazy—eventually creating my “secret sauce”: using glossaries to correct machine translation.

This feature was highly praised by http://proz.com kudoz champion Michael Beijer—a big-bearded, tattooed guy—who said it beat you-know-who by a mile. With an influencer like that talking it up, sales shot up.

rich text editor image

And come to appreciate the icon for GT4T I created before the era of AI. This represents the best of my artistic skill and taste!

rich text editor image

Still this is a kind of success story. GT4T still is alive. It brings in around 2000 USD monthly, steady and stable.

It's very different now. It utilizes the power of AI and gives translation suggestions by keyboard shortcuts like this:

rich text editor image

It is also a file translator that translates the largest number of file formats. It's a real local-first app, handles files locally and It doesn't upload users files.

rich text editor image

Well. That's the story of a 17-year app with moderate success. I hope you guys enjoy it. This is a work before AI. It's really hard handling formats like .PDF and .docx files.

]]>
<![CDATA[AI 기반 Google 번역 대안]]>I vibe coded it.

https://gtranslate.gt4t.ai/

An AI powered Google Translate Alternative. The translation quality is probably better than the real Google Translate.

It runs on paid Qwen services but you don't need to pay. I will pay for your usage.

]]>
https://gt4t.net/an-ai-powered-google-translate-alternative/691ac193accd1107ba0b8344Mon, 17 Nov 2025 06:35:52 GMTI vibe coded it.

https://gtranslate.gt4t.ai/

An AI powered Google Translate Alternative. The translation quality is probably better than the real Google Translate.

It runs on paid Qwen services but you don't need to pay. I will pay for your usage.

]]>
<![CDATA[문제: GPT가 세르비아 키릴 문자를 세르비아 라틴 문자로 번역함]]>For the GPT translates Serbian Cyrillic as Serbian Latin issue, you can fix it on yourside by editing the command (prompt) for gpt.

]]>
https://gt4t.net/problem-gpt-translates-serbian-cyrillic-as-serbian-latin/691393ab1fc53ef8193edceeTue, 11 Nov 2025 19:55:14 GMT

For the GPT translates Serbian Cyrillic as Serbian Latin issue, you can fix it on yourside by editing the command (prompt) for gpt.

]]>
<![CDATA[문제: 문장 시작의 대문자가 소문자로 바뀜]]>Q: all uppercase letters at the beginning of the sentence become lowercased

A: For the uppercase issue, check if you accidentally checked this option:

]]>
https://gt4t.net/problem-all-uppercase-letters-at-the-beginning-of-the-sentence-become-lowercased/691391861fc53ef8193edcddTue, 11 Nov 2025 19:47:42 GMTQ: all uppercase letters at the beginning of the sentence become lowercased

A: For the uppercase issue, check if you accidentally checked this option:

]]>
<![CDATA[GT4T 인터페이스 언어를 변경하는 방법]]>To change the interface language, go to the bottom right corner of your screen at Windows system tray and RIGHT click on the GT4T icon (the blue robot head) then Click "Interface languages" and choose a language you desire.

]]>
https://gt4t.net/how-to-change-the-interface-language-of-gt4t/690ee0a01fc53ef8193edccbSat, 08 Nov 2025 06:18:49 GMTTo change the interface language, go to the bottom right corner of your screen at Windows system tray and RIGHT click on the GT4T icon (the blue robot head) then Click "Interface languages" and choose a language you desire.

]]>
<![CDATA[MT 기능이 비활성화되어도 Smartcat에서 AI/MT로 번역을 돕는 방법]]>GT4T provides special keyboard shortcuts for all major CAT tools.

Use GT4T shortcuts, you can

1) get translation suggestions by hitting ctrl alt j.

2) Or even get your whole document translated by hitting ctrl shift j 😄

It doesn't matter even if MT or AI engines are

]]>
https://gt4t.net/use-ai-or-mt-to-help-with-your-translation-in-smartcat-even-when-mt-feature-is-disabled/690cd7f51fc53ef8193edc8bThu, 06 Nov 2025 17:32:38 GMTGT4T provides special keyboard shortcuts for all major CAT tools.

Use GT4T shortcuts, you can

1) get translation suggestions by hitting ctrl alt j.

2) Or even get your whole document translated by hitting ctrl shift j 😄

It doesn't matter even if MT or AI engines are disabled. GT4T just works over all CAT tools regardless of their settings.

I suppose you didn't know this before? I am not surprised. GT4T is translators' best-kept secret weapon for over a decade.

Once GT4T is installed and running in the background, you can use these shortcuts in the following CAT tools even when the automatic translation feature is either disabled or doesn't exist internally:

Trados Studio, CafeTran, Dejavu, Memsource, Memoq, Wordfast, translate5, Crowdin, Heartsome Translation Studio, Across Translator, Smartling, Swordfish, Fluency Now, OmegaT, Transifex Editor, Sony Online Translation Tool, Alchemy CAtalyst, 译马网, XTM, Transit, Lokalise, Idiom WorldServer, TransTool, Scriben, 雪人, SmartCat, Marseditor, Yicat ...

Impressive. GT4T has been serving translators for over a decade and no other apps do this.

GT4T version 8.43.251106: fixed a broken smartcat.com support

Troubleshooting: If it doesn't work:

  1. Turn off your Chinese input.
  2. Use your CAT built-in buttons or shortcuts to copy all source text to target first.
GT4T 다운로드
]]>
<![CDATA[GT4T 단축키에서 번역 팝업 대신 "선택 영역 바꾸기"를 기본값으로 설정하는 방법]]>In older versions, when pressing ctrl j, ctrl q, or ctrl alt j in CAT tools, selections will be replaced directly by translation.

In newer versions, however, ctrl j, ctrl q or ctrl alt j will call up the pop-up. To replace selection without the pop-up, you will need to

]]>
https://gt4t.net/how-to-set-replacing-selection-as-default-instead-of-the-translation-pop-up-for-gt4t-shortcuts/69034067ee5753680bb39865Thu, 30 Oct 2025 10:40:29 GMT

In older versions, when pressing ctrl j, ctrl q, or ctrl alt j in CAT tools, selections will be replaced directly by translation.

In newer versions, however, ctrl j, ctrl q or ctrl alt j will call up the pop-up. To replace selection without the pop-up, you will need to add a Win button, e.g. ctrl win j.

To revert to the old behavior, go to Setup -> Options under Super Add-on and then choose "Replace selection directly".

How to set "replacing selection" as default instead of the translation pop-up for GT4T shortcuts?
]]>
<![CDATA[곧 공개]]>This is GT4T BLOG, a brand new site by Dallas that's just getting started. Things will be up and running here shortly, but you can subscribe in the meantime if you'd like to stay up to date and receive emails when new content is published!

]]>
https://gt4t.net/coming-soon/690332e5ee5753680bb395ffThu, 30 Oct 2025 09:41:57 GMT

This is GT4T BLOG, a brand new site by Dallas that's just getting started. Things will be up and running here shortly, but you can subscribe in the meantime if you'd like to stay up to date and receive emails when new content is published!

]]>