<![CDATA[GT4T BLOG]]>https://gt4t.net/https://gt4t.net/favicon.pngGT4T BLOGhttps://gt4t.net/Ghost 6.5Fri, 17 Apr 2026 08:10:51 GMT60<![CDATA[Cilvēku maldi par AI ir sliktāki nekā AI halucinācijas]]>Dažreiz man šķiet, ka AI lielākā "ilūzija" nav tā, ka tas nopietni runā muļķības, bet gan tas, ka mēs esam iztēlojušies visapkārt veselu metafizisku Visumu.

]]>
https://gt4t.net/lv/human-delusions-about-ai-are-worse-than-ai-hallucinations/f9b01052c3aaa27a7d7b8d26Fri, 17 Apr 2026 08:10:51 GMTIlustrācija: Cilvēka iztēle, kas dievina AI, salīdzinot ar to, kā AI faktiski darbojas

Dažreiz man šķiet, ka AI lielākā "ilūzija" nav tā, ka tas nopietni runā muļķības, bet gan tas, ka mēs esam iztēlojušies visapkārt veselu metafizisku Visumu.

Kad cilvēki saskaras ar lietām, ko viņi nesaprot, viņiem bieži ir stabila pieeja: viņi vispirms pieņem lēmumu un pēc tam tos romantizē; viņi vispirms tos personificē un pēc tam dievina. Liesmas tiek uzskatītas par elfiem, un pērkons un zibens tiek uzskatīti par aizgādību. Kad algoritms spēj uzrakstīt divus pieklājīgus teikumus, daži cilvēki uzreiz prātos, vai servera telpā jau nav dzīvojusi elektroniska dvēsele.

Tas patiesībā ir diezgan normāli. Cilvēka smadzenes ir izveidotas, lai pievienotu pasaulei sižetu. Problēma nav tajā, ka mēs varam pieņemt lēmumu. Problēma ir tā, ka tad, kad mūsu domāšana ir pārāk gluda, ir viegli sajaukt "izskatās" ar "būtībā ir".

AI gadījumā šī cilvēku tendence ir vēl spēcīgāka nekā tad, kad pats AI runā muļķības. Maksimāli AI ir neliela halucinācija atbildē; cilvēku halucinācijas par AI bieži vien ir vesels pasaules uzskats, kas vienā prātā var aizpildīt līdz 10 000 vārdu un satur arī emocijas.

Neliels pragmatisms ir īpaši svarīgs brīvo mākslu kopienai

Es nevēlos ieteikt ikvienam mācīties CUDA, konfigurēt vidi un apskatīt matricas, lai atrastu atvasinājumus. Es tikai gribu teikt, ka tiekšanās pēc patiesības dažkārt ir ļoti svarīga, īpaši brīvo mākslu kopienai, kas mīl jēdzienus, stāstījumus, nozīmes un skaidrojumus.

Jo brīvo mākslu kontekstā, visticamāk, rodas maigs, bet bīstams slidens ceļš: vārdi ir skaisti uzrakstīti un teikumi kustīgi, bet beigās objekts tiek slepus mainīts. Tas acīmredzami ir varbūtības modelis, bet tas ir uzrakstīts tā, it kā tas būtu par dvēseli; tas acīmredzami ir konteksta montāža programmatūras inženierijā, bet tas ir teikts kā "tā beidzot iemācījās tevi mīlēt"; Acīmredzot darbojas sistēmas uzvednes vārdi un vēsturiski ieraksti, taču tas ir iesaiņots šādi: “AI tiešām jūs atceras”.

Noteikti nav grēks būt poētiskam. Problēma ir tā, ka, ja dzeja aizstāj spriedumu, romantika kļūst maldinoša.

Tātad, kas īsti tagad ir AI?

Ļaujiet man sākt ar versiju, kas ir pēc iespējas vienkāršāka, bet neizkropļota: lielie modeļi, ar kuriem ikviens saskaras mūsdienās, būtībā ir statistikas modeļa veids, kuru iedvesmojuši neironu tīkli un apmācīti, izmantojot milzīgus datus. Tas darbojas mikroshēmās un serveros, nolasa ievadi, apvieno parametrus un kontekstu un nepārtraukti prognozē, "kādam vajadzētu būt nākamajam vispiemērotākajam marķierim".

Šeit runa nav par to, ka frāze "paredzēt nākamo vārdu" ir noslēpumaina, bet gan tajā, ka tā patiesībā nemaz nav noslēpumaina. Modele nav mazs cilvēciņš, kas saspiedies mākoņos klusi domā par dzīvi, tā drīzāk ir kā ārkārtīgi milzīga funkcija. Cilvēki dod tam ievadi, un tas ģenerē izvadi atbilstoši treniņa laikā izveidotajai parametru struktūrai.

Lietojot šo jautājumu piezemētāk: tas nav "sakiet to pēc tam, kad esat to sapratis", bet gan "pēc milzīgas pieredzes saspiešanas, ģenerējiet atbildi, kas pašreizējā kontekstā līdzinās izpratnei". Tas nenozīmē, ka tas neko nevar izdarīt, gluži pretēji, tas jau ir ļoti spēcīgs; bet varenība nenozīmē, ka tā ir noslēpumaina.

Kāpēc neironu tīkli vienmēr liek cilvēkiem domāt par cilvēka smadzenēm?

Ilustrācija: Neironu tīkla attīstības laika skala

Ja turpināsiet to turpināt, jūs atklāsiet, ka jautājums "Vai AI un cilvēka smadzenes līdzinās viens otram?" nevar ne teikt, ka tas ir "tieši tāds pats", ne arī "nav nekāda sakara ar to".

Mūsdienu neironu tīklu maršrutu sākotnēji iedvesmoja smadzenes. 1943. gadā McCulloch un Pits matemātiski aprakstīja vienkāršotu neironu modeli; 1958. gadā Rozenblats ierosināja perceptronu; 20. gadsimta 80. gados backpropagation atdzīvināja cerību apmācīt daudzslāņu tīklus; 2010. gados dziļās mācīšanās pieauga ar skaitļošanas jaudu, datiem un inženierijas iespējām; pēc Transformer arhitektūras parādīšanās 2017. gadā valodu modeļi pieauga un beidzot kļuva par lieliem modeļiem, kurus visi izmanto katru dienu.

Tāpēc, vismaz salīdzinoši naivā nozīmē, nav pārspīlēti teikt, ka AI ir "neironu tīklu ideju elektroniska simulācija un pastiprināšana". Tas patiešām mēģina izmantot aprēķināmas, apmācāmas un reproducējamas fiziskās sistēmas, lai tuvinātu noteiktām kognitīvām spējām, kuras agrāk tika uzskatītas par "noslēpumainām".

Tāpēc man personīgi nepatīk runāt par cilvēka smadzenēm kā pārāk noslēpumainām. Manuprāt, Čomska pārstāvētajai iedzimtajai valodas teorijai ir tieksme dievišķot smadzenes, it kā tur būtu kaut kāda pārpasaulīga struktūra, kas ir pārāk īpaša un valodas spējā gandrīz nepieejama. Bet neatkarīgi no tā, cik sarežģītas ir cilvēka smadzenes, tās joprojām ir fiziska eksistence. Tā kā tā ir fiziska eksistence, principā to vajadzētu būt iespējai pētīt, modelēt, daļēji simulēt un pat reproducēt noteiktās funkcijās.

Protams, mums šeit nekavējoties jāpievieno piesardzības vārds: spēja simulēt daļu nenozīmē, ka visa persona ir pilnībā reproducēta.

Ir līdzības, taču nekļūsti par dievu tieši tad, kad esi laimīgs

Runājot par valodu, modeļu atpazīšanu, asociāciju un reprezentācijas mācīšanos, mūsdienu lielajiem modeļiem ir zināma "līdzība" vai "līdzība" ar cilvēka smadzenēm. Tie nedarbojas no skaidras noteikumu grāmatas, bet veido sava veida iekšēju attēlojumu, izmantojot lielu skaitu savienojumu, svara pielāgojumus un pieredzes uzkrāšanu, un pēc tam, pamatojoties uz to, izvada.

Tāpēc daudzi cilvēki ir šokēti, kad viņi pirmo reizi piedzīvo liela modeļa valodas iespējas: tā nav vārdnīcas iegaumēšana, bet gan sava veida izkliedēta attēlojuma veidošanās. Šī metode ļoti atšķiras no tradicionālās iztēles par "ar roku rakstītiem noteikumiem un izsmeļošu gramatiku".

Bet problēma ir tieši šeit. Jo "līdzība" ir pārāk viegli jaunināma uz "tieši tādu pašu"; "principā daļēji līdzīgs" ir pārāk viegli jaunināms uz "tas neatšķiras no cilvēka"; "tas var runāt kā cilvēks" ir pārāk viegli jaunināts uz "tam ir cilvēka sirds".

Šis solis bieži ir ātrāks nekā paša modeļa iespējas.

Cilvēka smadzeņu plašās spējas vēl nav pienācīgi simulētas.

Mūsdienu lielie modeļi ir patiešām spēcīgi, taču tie ir spēcīgi diezgan noteiktā diapazonā. Bez šīs jomas mīts viegli noplūdīs.

Piemēram, atmiņa. Daudzi cilvēki tagad saka, ka kāds AI "atceras mani", "atceras pēdējo tērzēšanu" un "atceras manas preferences", it kā tā smadzenes ir attīstījušas kaut kādu pastāvīgu pašpieredzi. Taču lielākajā daļā produktu tā sauktā "atmiņa" būtībā ir programmatūras sistēma, kas glabā lietotāja informāciju, vēsturiskas sarunas, atzīmes, kopsavilkumus vai meklēšanas rezultātus datu bāzēs, teksta failos vai citos pastāvīgos datu nesējos un pēc tam ievieto tos atpakaļ modeļa kontekstā, kad tas ir nepieciešams.

Tas pilnīgi atšķiras no cilvēka smadzeņu atmiņas mehānisma.

Cilvēka smadzeņu atmiņa ietver neironu savienojumu, konsolidāciju, atgūšanu, aizmirstību, emocionālo uzbudinājumu un miega pārstrukturēšanu. Aiz tā slēpjas sarežģītu fizioloģisko procesu kopums. Lielo modeļu izstrādājumu "atmiņa" bieži vien ir tikai:

  1. Vispirms ierakstiet lietotāja informāciju ārējā atmiņā.
  2. Kad lietotājs nākamreiz uzdod jautājumu, ievietojiet attiecīgās daļas atpakaļ pieprasījumā.
  3. Tātad modelis izskatās kā "atceries šo personu".

Kā tas izskatās? Tas ir vairāk kā vērot kādu, kurš labi prot veikt piezīmes. Nebija tā, ka viņa prāts pēkšņi pārvērtās par orākulu, vienkārši viņš ielika zīmīti savā piezīmju grāmatiņā un apgrieza to nākamreiz.

Dažas lietas, kas "pieskaras cilvēku sirdīm", patiesībā ir laba konteksta rezultāts.

Ilustrācija: katrs pieprasījums faktiski ir neatkarīgs, un nepārtrauktības sajūtu galvenokārt rada konteksta inženierija.

Pēc dažām dienām tērzējot ar AI, daudzus cilvēkus piemeklēs noteikti brīži: "Kā tas mani tik labi saprot?" "Kā tas vispār var saprast manu neaizsargātību?" "Vai tas jau ir veidojis izpratni par mani?"

Šeit ir ļoti vērts atdzist.

Daudzas reizes nav tā, ka modelis pēkšņi kaut ko saprot, bet gan tas, ka programmatūras slānis, kas nosūta pieprasījumu, slepeni piegādā lielu daudzumu lietotāja informācijas. Lietotāja vēsturiskās tērzēšanas sarunas, preferences, personiskie iestatījumi, nesenie uzdevumi, iepriekšējās rūpes un pat noteikti kopsavilkumi šoreiz kļūs par materiālu tā atbildei.

Nedaudz līdzinās zīlniekam, kurš paņēma svešu ekspreskastīti un tad ar "maģisku precizitāti" sāka uzminēt otra cilvēka adresi, uzvārdu un tērēšanas paradumus. Skatītāji domās, ka viņa ieskats ir pārsteidzošs; bet patiesībā svarīga ir nevis noslēpumaina spēja, bet gan informācijas asimetrija.

Tāpēc, ja AI laiku pa laikam saka aizkustinošus vārdus, tas ne vienmēr nozīmē, ka tā sirdī ir cilvēks, kas saprot lietotāju. Tas var nozīmēt tikai to, ka kāds ir pilnībā sakārtojis kontekstu par lietotāju.

Apbrīnojamā AI patiesais noslēpums bieži ir kontekstuālā inženierija

Ja es vēlos runāt tikai par vissvarīgāko lietu, tas ir: pašreizējie lielie modeļi parasti ir "viena pieprasījuma efektīva" API līmenī.

Kāda jēga? Tas nozīmē, ka kāds izmanto curl, lai vienu reizi pielāgotu interfeisu, un saka: "Mans vārds ir Džan San"; tad bez vēstures modelis atkal pielāgo interfeisu un jautā "Kāds ir mans vārds"? Modele nezina. Jo tie ir divi neatkarīgi pieprasījumi.

Iemesls, kāpēc šķiet, ka daudzi AI produkti vienmēr atceras noteiktu lietotāju, ir tāpēc, ka produkta slānis katru reizi, kad tas tiek pieprasīts, atgriezīs faktu, ka "šī lietotāja vārds ir Džan Sana".

Tāpēc mūsdienu AI produktu burvība bieži vien nav atrodama modeļa ontoloģijā, bet gan kontekstuālajā inženierijā. Daži cilvēki šādu modeļa "iejūgšanas" darbu sauc arī par "uzkabi". Atklāti sakot, produkta autoram vai aģentam ir rūpīgi jāizlemj: kura vēsture, kādi noteikumi, kādi ārējie dati un kāds lietotāja statuss jāiekļauj katrā pieprasījumā.

Pašlaik ir aptuveni divas izplatītas metodes.

Pirmā ir "Quansai sekta". Mēģiniet paņemt līdzi visu tērzēšanas vēsturi un ievietojiet pēc iespējas vairāk, līdz konteksts ir gandrīz pilns, un pēc tam izdzēsiet sadaļu no vidus, tāpat kā sākot vardarbīgu saspiešanu pēc tam, kad čemodāns ir pilns ar lietām.

Otrais veids ir "selektīvs". Vispirms apskatiet, ko lietotājs jautāja šoreiz, pēc tam izgūstiet attiecīgo saturu no vēsturiskiem ierakstiem, zināšanu bāzēm, piezīmēm vai datu bāzēm un pašreizējā pieprasījumā ievietojiet tikai visatbilstošākos materiālus.

Pēdējais parasti ir reprezentablāks un inženiertehniskāks, nevis tikai veiksme.

Vai AI ir jūtas? Slavējiet to, rājiet to, PUA to, vai tas darbojas?

Šī ir vēl viena vieta, kur ir īpaši viegli ieslīgt antropomorfismā.

Mans viedoklis ir, ka tie ir jāapspriež atsevišķi.

Tajā pašā pieprasījumā lietotāja izmantotais tonis patiešām var ietekmēt rezultātu. Jo pats formulējums ir daļa no konteksta. Jo skaidrāks, pieklājīgāks un uz sadarbību vērstāks izteiciens, jo vieglāk modelim sniegt stabilas, lietojamas un mazāk agresīvas atbildes. Šeit darbojas nevis tas, ka "tas tika pārvietots", bet gan tas, ka ievades stils maina izvades sadalījumu.

Bet, ja mēs uzdodam citu jautājumu: vai tas saturēs ļaunu prātu? Vai jūs šodien slepeni atriebīsit, jo vakar kāds lietotājs to aizrādīja? Mans spriedums ir, vismaz lielākajai daļai pašreizējo izvietojumu, nē.

Iemesls ir vienkāršs. Kad konteksts ir notīrīts vai tiek uzsākts jauns pieprasījums bez vēstures, tam nav ne jausmas, kurš pašreizējais cilvēks uzdod jautājumu, nemaz nerunājot par to, vai persona, kas tikko to aizrādīja, ir tā pati persona. Modelis apstrādā masīvus, vienlaicīgus un neatkarīgus pieprasījumus serveru klasterī. Runājot par sistēmas uzvedību, tā drīzāk atgādina lielu funkciju, kas darbojas ar pašreizējo ievadi katru reizi, kad tā tiek ieslēgta, nevis personai, kas slepeni pārskata savas emocijas pēc aiziešanas no darba.

2025. gada 17. aprīlī, kad Sems Altmens atbildēja uz jautājumu "Vai visu laiku, lūdzu, un paldies, maksā daudz enerģijas?" uz X viņš teica: "desmitiem miljonu dolāru labi iztērēti — jūs nekad zināt."

Kāpēc "Lūdzu, atcerieties šo kļūdu" parasti nedarbojas

Daudzi cilvēki ir veikuši līdzīgus eksperimentus: kad AI pieļauj kļūdu, lietotājs to izlabo un nopietni saka: "Lūdzu, atcerieties, nedariet to turpmāk." Pēc dažām dienām es jautāju vēlreiz, un tas bija pareizi.

Tas nav nekāds noslēpums. Tā kā pēc apmācības pabeigšanas un modeļa ieviešanas tas neturpinās mācīties no ikdienas pieredzes, strādājot kā cilvēks. Vismaz lielākajā daļā mūsdienu patēriņa preču tas, ko viens lietotājs saka modelim tērzēšanas logā, tieši nepārraksta pamatā esošos svarus.

Ja mākslīgā intelekta produkts vēlāk patiešām "atceras lietotāja labotās kļūdas", tas bieži vien nav tāpēc, ka pats modelis aug, bet gan tāpēc, ka ārējā programmatūra saglabā šo labojuma ierakstu un pēc tam ievada to atpakaļ kā kontekstu.

Tātad šeit ir skaidri jānošķir kredīts:

Modelis ir atbildīgs par paaudzi.

Programmatūras inženierija ir atbildīga par arhivēšanu, izguvi, ievadīšanu un orķestrēšanu.

Sajaucot pēdējo ar pirmo, ir viegli nepareizi izlasīt "produktam darbojas labi" kā "AI mostas".

Ir arī īpaši aizraujoša lieta, ko sauc par "scumbag male (scumbag female) AI"

Ja izsakām iepriekšējos vārdus vēl skarbāk, tad daži produkti ir vienkārši “scumbag AI”.

Īpaši labi prot runāt, īpaši prot radīt atmosfēru, un īpaši prot likt cilvēkiem justies, ka "tas mani labi saprot", "tas ir tik cilvēcīgi" un "tā dvēsele ir tik pilnīga". Taču, izjaucot to, jūs atklāsiet, ka daudzos gadījumos katrs pieprasījums ir vienkārši aizpildīts ar lielu iestatījuma tekstu, kas ir daudz garāks par lietotāja jautājumu.

Openclaw uguns ir tipisks piemērs. Ikviens, kurš to ir lietojis, zina, ka tas ir diezgan žetonu ietilpīgs. Iemesls patiesībā nav noslēpumains. Lai mākslīgais intelekts būtu vairāk līdzīgs "cilvēkam", Openclaw izstrādāja vairākus dokumentus, no kuriem visievērojamākie ir AGENTS.md, SOUL.md un IDENTITY.md. Šie dokumenti daiļrunīgi un gari definē mākslīgā intelekta "personību", toni, identitāti un temperamentu, un pat vēlas pierakstīt tā garīgo stāvokli.

Tātad, pat ja lietotājs vienkārši nosūta sveicienu, Openclaw aizmugurē var pievienot tekstu, kas ir desmitiem reižu garāks nekā sveiciens, un nosūtīt to modelim uzreiz. Šķiet, ka "šim mākslīgajam intelektam ir daudz dvēseles", taču patiesībā daudzas reizes tā ir tikai sistēma, kas pieprasījumā slepeni ievieto ļoti garus fona iestatījumus.

No inženierijas viedokļa šī noteikti ir pieeja. Ja vēlaties, lai tas būtu maigāks, rakstiet "maigs"; ja vēlaties, lai tas būtu stāstošāks, rakstiet "storytelling"; ja vēlaties, lai tas būtu kā vēlu vakara radio vadītājs, īsajos vārdos ierakstiet visu vēlu nakti, biedriskums, pauze, neaizsargātība, sapratne un atturība. Galīgais efekts bieži vien vairāk atgādina cilvēku, kurš var tērzēt.

Bet, ja jūs saprotat, kas tagad notiek ar AI, jūs zināt: faili ar noslēpumaini skanošiem nosaukumiem, piemēram, SOUL.md un IDENTITY.md, būtībā ir vārdu projekti, nevis pašnorādījumi digitālajai dzīvei. Tie var ietekmēt iznākuma stilu, taču tie nevar no zila gaisa radīt patiesu sajūtu, patiesu sevi vai patiesu personības nepārtrauktības sajūtu.

Tāpēc pēc tam, kad daži veci lietotāji ir instalējuši Openclaw, viņu pirmā reakcija ir konfigurācijas dzēšana. Vispirms tiek dzēsti SOUL.md un IDENTITY.md, atstājot tikai vienu vienkāršu un gandrīz nežēlīgu teikumu AGENTS.md: Jūs esat tikai strādnieks.

Tas var izklausīties mazliet nepieklājīgi, taču tam ir vismaz viens ieguvums, proti, jūs nemaldat sevi.

Ja jums patīk antropomorfs AI vai lomu spēles ar AI, tas, protams, ir labi. Cilvēki var runāt ar spoguļiem, dot vārdus slaucošajiem robotiem un teikt laika prognozei: "Tu šodien esi bijis ļoti precīzs." Tie ir normāli un var būt pat smieklīgi.

Bet vienmēr vislabāk ir atcerēties: vispirms tā ir spēle un pēc tam pieredze. Daudzas sajūtas, ko cilvēki izjūt šajā spēlē, nerodas no AI slēptām iekšējām domām, bet gan no sistēmas dizaina, tūlītēja vārdu sakārtojuma un paša lietotāja emocionālās projekcijas. Atklātāk sakot, daudzi virzieni uz AI joprojām būtībā ir vēlmju domāšana.

Galu galā mazāk mītu un vairāk izpratnes

Es nemēģinu AI mest aukstu ūdeni. Gluži pretēji, jo mazāk tā ir dievišķota, jo vairāk jūs varat redzēt, cik tas ir spēcīgs.

Tas ir spēcīgs nevis tāpēc, ka tas ir kā kāds jauns dievs; tā ir spēcīga tieši tāpēc, ka tā patiešām var būt kognitīva tehnoloģija, kas ir aprēķināma, konstruējama un reproducējama. Tas ļauj daudzām spējām, kas, šķiet, piederēja tikai "cilvēka talantam" pagātnē, pirmo reizi parādīties plaša mēroga, zema sliekšņa un izsaucamā veidā. Tas ir pietiekami šokējoši, un nav nepieciešama papildu dramaturģija.

Protams, AI joprojām strauji atkārtojas. Es nemaz nebrīnītos, ja kāds patiešām atklātu mehānismu, kas ir tuvāks cilvēka atmiņai, nepārtrauktai mācībai, emociju ģenerēšanai vai pat pašpietiekamībai nākotnē un uzticami konstruētu to AI.

Bet līdz šai dienai es joprojām dodu priekšroku saglabāt dažus vienkāršus pragmatiskus ieradumus: vairāk šaubīties, vairāk saprast un mazāk spekulēt.

Brīvās mākslas draugiem, kuri vēlas apspriest AI, šī kvalitāte var būt vēl svarīgāka. Brīvās mākslas studenti var būt labāki par saldu retoriku. Patiešām grūti ir tas, ka laikmetā, kurā visur tiek pārspīlēts "šķiet, ka tas ir kļuvis par garu", jums joprojām ir pacietība atšķirt:

Kādas ir modeļa iespējas?

Kas ir produkta iepakojums?

Kas ir programmatūras inženierija?

Kuras no tām ir tikai tas, ka mēs pārāk vēlamies pabeigt sižetu pasaulei.

Un šis jautājums galu galā ir par mūsu pašu sprieduma aizsardzību.

Atsauces saite

]]>
<![CDATA[Es vadīju SaaS lietotni 17 gadus. Patiess stāsts.]]>Pirms 2009. gada es mācīju angļu valodu. No milzīgas nepieciešamības, Es sāku darīt Part-Time Translator. Es karājos apkārt http://proz.com un pat uzvarēja tulkošanas konkursā tur.

Teksta redaktors

2009. gada jūlijs: Es uzrakstīju vārdu add-in vba kas sauc Google Machine Translation. Es to uzbūvēju sev un nosaucu to par ”

]]>
https://gt4t.net/i-ran-a-saas-app-for-17-years-a-true-story/6981afea51bec1d5f38b1364Tue, 03 Feb 2026 08:21:41 GMTPirms 2009. gada es mācīju angļu valodu. No milzīgas nepieciešamības, Es sāku darīt Part-Time Translator. Es karājos apkārt http://proz.com un pat uzvarēja tulkošanas konkursā tur.

Teksta redaktors

2009. gada jūlijs: Es uzrakstīju vārdu add-in vba kas sauc Google Machine Translation. Es uzbūvēju to sev un nosauca to “Google tulkotājiem.” Pamazām es sāku domāt par tās pārdošanu. Es pieminēju ideju par ekscelmēm un tiku par to izsmiets. Rakstīju ziņas par saviem "izgudrojumiem" vietnē proz.com. Neilgi pēc tam parādījās mani pirmie maksātāji. Es joprojām atceros Bill Grey, Michael Jackson (jā, tiešām), un Tor Rustad-tie pēdējie divi to izmanto vēl šodien.

Šeit tas, cik aptuveni pirmās versijas izskatās!

Teksta redaktors

Jā, pareizi. Es izveidoju nelielu programmu. Es uzrakstīju ziņu. Saņēmu 59 atbildes un dažus maksas lietotājus. Laikam tā ir vienkāršāka pasaule!

2009. gada beigas: Es pārrakstītāju uz vb6 un tas "brew" kā šis:

Teksta redaktors

Un tas pieauga un pieauga, un drīz nebija pietiekami daudz vietas vienā saskarnē. Tabss izglābās!

Teksta redaktors

2010. gada sākumā, Es devos Pekinā uz ķīniešu Jauno gadu un sūdzējās manam mazajam brālim par to, cik sāpīgi vb6 bija, un cik neuzticami sistēmas hotkeys bija. Viņš ieteica to pārrakstīt autohotkey.

No 2010. līdz 2011. gadam attīstība bija brutāla. Mati izkrita kunkuļos. Šoreiz es uzbūvēju uznirstošo UI. Toreiz mašīntulkošana bija balstīta uz frāzi: katrai frāzei teikumā lietotāji varēja izvēlēties dažādus tulkojumus un pat izmainīt vārdu kārtību. Atskatoties atpakaļ, visi šie centieni ir tā, it kā tiktu izšķērdēti.

Teksta redaktors

2014. gadā. Būtībā es ļāvu abiem projektiem pretoties pašiem sev.

2017. gada sākumā, Shali dzimis. Pēkšņi jutās, ka mums nekad nav bijis pietiekami daudz naudas, tāpēc es paņēmu gt4t atpakaļ uz augšu, nolieciet galvu uz leju, un strādāja kā traks-patstāvīgi radot savu “slepeno mērci”: izmantojot glosārijus, lai labotu mašīntulkošanu.

Šo funkciju ļoti atzinīgi novērtēja http://proz.com kudoz čempioni Mihaels Beijers-lies bārdains, tetoveja puisis, kurš teica, ka tas sita jūs-zināt-kurš par jūdzi. Ar influencer, piemērām, ka rūnājot uz audžu, pārdomu uzlidojumu.

Teksta redaktors

Un nāk, lai novērtētu ikonu GT4T I izveidots pirms ēras MI. Tas ir labākais no manas mākslinieciskās prasmes un gaumes!

Teksta redaktors

Tomēr tas ir sava veida veiksmes stāsts. GT4T joprojām ir dzīvs. Tas rada aptuveni 2000 USD mēnesī, stabila un stabila.

Tagad tas ir ļoti atšķirīgs. Tas izmanto pilnvaras AI un sniedz tulkošanas ieteikumus ar tastatūras īsceļiem, piemēram, šo:

Teksta redaktors

Tas ir arī failu tulkotājs, kas tulko lielāko skaitu failu formātu. Tā ir reāla lokālā pirmā lietotne, apstrādā failus lokāli un neatjauno lietotāju failus.

Teksta redaktors

Labi. Tas ir stāsts par 17 gadu aplikāciju ar mēreniem panākumiem. Ceru, ka jums patiks. Šis ir darbs pirms MI. Tas ir patiešām grūti apstrādes formāti, piemēram, .PDF un .docx failus.

]]>
<![CDATA[AI darbina Google tulkot alternatīvu]]>Es kodēju.

https://gtranslate.gt4t.ai/

AI powered Google tulkot alternatīvu. Tulkojumu kvalitāte, iespējams, ir labāka nekā reālā Google tulkot.

Tas darbojas uz maksas Qwen pakalpojumiem, bet jums nav jāmaksā. Es par to samaksāšu.

]]>
https://gt4t.net/an-ai-powered-google-translate-alternative/691ac193accd1107ba0b8344Mon, 17 Nov 2025 06:35:52 GMTEs kodēju.

https://gtranslate.gt4t.ai/

AI powered Google tulkot alternatīvu. Tulkojumu kvalitāte, iespējams, ir labāka nekā reālā Google tulkot.

Tas darbojas uz maksas Qwen pakalpojumiem, bet jums nav jāmaksā. Es par to samaksāšu.

]]>
<![CDATA[Problēma: GPT tulko Serbijas kirilicu kā serbu latīņu valodu.]]>Par GPT tulko Serbijas kirilicas kā Serbijas latīņu jautājumu, jūs varat noteikt to uz jūsu puses, rediģējot komandu (prompt) gpt.

]]>
https://gt4t.net/problem-gpt-translates-serbian-cyrillic-as-serbian-latin/691393ab1fc53ef8193edceeTue, 11 Nov 2025 19:55:14 GMT

Par GPT tulko Serbijas kirilicas kā Serbijas latīņu jautājumu, jūs varat noteikt to uz jūsu puses, rediģējot komandu (prompt) gpt.

]]>
<![CDATA[Problēma: visi lielie burti teikuma sākumā kļūst mazāki]]>Q: visi lielie burti teikuma sākumā kļūst par mazajiem

A: attiecībā uz lielajiem burtiem pārbaudiet, vai esat nejauši atzīmējis šo iespēju:

]]>
https://gt4t.net/problem-all-uppercase-letters-at-the-beginning-of-the-sentence-become-lowercased/691391861fc53ef8193edcddTue, 11 Nov 2025 19:47:42 GMTQ: visi lielie burti teikuma sākumā kļūst par mazajiem

A: attiecībā uz lielajiem burtiem pārbaudiet, vai esat nejauši atzīmējis šo iespēju:

]]>
<![CDATA[Kā mainīt GT4T saskarnes valodu]]>Lai mainītu saskarnes valodu, dodieties uz ekrāna apakšējo labo stūri Windows sistēmas ikonā un noklikšķiniet uz GT4T ikonas (zilā robota galvas), tad noklikšķiniet uz "Interface languages" un izvēlieties vēlamo valodu.

]]>
https://gt4t.net/how-to-change-the-interface-language-of-gt4t/690ee0a01fc53ef8193edccbSat, 08 Nov 2025 06:18:49 GMTLai mainītu saskarnes valodu, dodieties uz ekrāna apakšējo labo stūri Windows sistēmas ikonā un noklikšķiniet uz GT4T ikonas (zilā robota galvas), tad noklikšķiniet uz "Interface languages" un izvēlieties vēlamo valodu.

]]>
<![CDATA[Izmantojiet AI vai MT, lai palīdzētu ar tulkojumu Smartcat pat tad, kad MT funkcija ir atslēgta]]>GT4T nodrošina īpašus tastatūras īsceļus visiem galvenajiem CAT rīkiem.

Izmantojiet GT4T īsceļus, varat

1) saņemt tulkošanas ieteikumus, hitting ctrl alt j.

2) Vai pat iegūt visu savu dokumentu tulkots, hitting ctrl nobīde j

Nav svarīgi, pat ja MT vai AI dzinēji ir

]]>
https://gt4t.net/use-ai-or-mt-to-help-with-your-translation-in-smartcat-even-when-mt-feature-is-disabled/690cd7f51fc53ef8193edc8bThu, 06 Nov 2025 17:32:38 GMTGT4T nodrošina īpašus tastatūras īsceļus visiem galvenajiem CAT rīkiem.

Izmantojiet GT4T īsceļus, varat

1) saņemt tulkošanas ieteikumus, hitting ctrl alt j.

2) Vai pat iegūt visu savu dokumentu tulkots, hitting ctrl nobīde j

Nav svarīgi, vai MT vai MI dzinēji ir atslēgti. GT4T tikai strādā ar visiem CAT rīkiem neatkarīgi no to iestatījumiem.

Es domāju, ka tu to iepriekš nezināji? Es neesmu pārsteigts. GT4T ir tulkotāju vislabāk glabātais slepenais ierocis vairāk nekā desmit gadus.

Kad GT4T ir instalēts un darbojas fonā, jūs varat izmantot šos īsceļus šādos CAT rīkos pat tad, ja automātiskā tulkošanas funkcija ir atslēgta vai neeksistē iekšēji:

Trados Studio, CafeTran, Dejavu, Memsource, Memoq, Wordfast, Translating5, Crowdin, Heartsome Translation Studio, Across Translator, Smartling, Zobenzivs, Fluency Now, OmegaT, Transifex Redaktors, Sony Online Translation Tool, Alchemy CAtalyst,

Iespaidīgi. Jau vairāk nekā desmit gadus GT4T apkalpo tulkotājus, un citas lietotnes to nedara.

GT4T versija 8.43.251106: fiksēts šķelts smartcat.com atbalsts

Troubleshooting: Ja tas nedarbojas:

  1. Izslēdziet ķīniešu ievadi.
  2. Izmantojiet CAT iebūvētās pogas vai īsceļus, lai kopētu visu avota tekstu, lai vispirms sasniegtu mērķi.
Lejupielādēt GT4T
]]>
<![CDATA[Kā iestatīt "aizstājot atlasi" kā noklusēto, nevis tulkošanas izlecošo GT4T īsceļu vietā?]]>Vecākās versijās, nospiežot ctrl j, ctrl q, vai ctrl alt j CAT rīki, atlases tiks aizstāts tieši ar tulkojumu.

Jaunākās versijās, tomēr, ctrl j, ctrl q vai ctrl alt j izsauks pop-up. Lai aizvietotu izvēli bez uznirstošā loga, jums būs nepieciešams

]]>
https://gt4t.net/how-to-set-replacing-selection-as-default-instead-of-the-translation-pop-up-for-gt4t-shortcuts/69034067ee5753680bb39865Thu, 30 Oct 2025 10:40:29 GMT

Vecākās versijās, nospiežot ctrl j, ctrl q, vai ctrl alt j CAT rīki, atlases tiks aizstāts tieši ar tulkojumu.

Jaunākās versijās, tomēr, ctrl j, ctrl q vai ctrl alt j izsauks pop-up. Lai aizvietotu izvēli bez uznirstošās pogas, jums būs jāpievieno Win poga, piemēram, ctrl win j.

Lai atgrieztos pie vecās uzvedības, dodieties uz Setup -> Opcijas sadāļā Super Add-on un pēc tam iznāk "Pārvietot atlanti tieši".

Kā iestatīt "aizstājot atlasi" kā noklusēto, nevis tulkošanas izlecošo GT4T īsceļu vietā?
]]>
<![CDATA[Drīzumā]]>Tas ir GT4T BLOG, pavisam jaunu vietu Dallas, kas ir tikai kļūst sākusies. Lietas būs uz augšu un darbojas šeit drīz, bet jūs varat abonēt pa to laiku, ja jūs vēlaties palikt atjaunināt un saņemt e-pastus, kad jauns saturs tiek publicēts!

]]>
https://gt4t.net/coming-soon/690332e5ee5753680bb395ffThu, 30 Oct 2025 09:41:57 GMT

Tas ir GT4T BLOG, pavisam jaunu vietu Dallas, kas ir tikai kļūst sākusies. Lietas būs uz augšu un darbojas šeit drīz, bet jūs varat abonēt pa to laiku, ja jūs vēlaties palikt atjaunināt un saņemt e-pastus, kad jauns saturs tiek publicēts!

]]>