Skip links

OpenAI tappis Sora, Anthropic tõusmas



⏱️

30-sekundi kokkuvõte

  • OpenAI sulges Sora video-generaatori kõrgete kulude ja tugeva konkurentsi tõttu, suunates ressursid simulatsioonile ja robootikale.
  • Anthropic Claude Pro tellimused kahekordistusid tänu reklaamidele ja uutele funktsioonidele, samas kui lekkis info uuest tippmudelist nimega Claude Mythos.
  • Wikipedia keelas AI-generatsiooni artiklites ja geopoliitika mõjutab aina rohkem AI-teadust – Eestis tasub jälgida usaldusväärseid allikaid.

OpenAI ütles Sora’le hüvasti – kas see on AI-video lõpp või alles algus?

Tere hommikust! Tehisintellekti maailm ei maga kunagi, aga vahel teeb ta ootamatuid pöördeid. Seekord on peamine uudis see, et OpenAI on otsustanud sulgeda oma populaarse video-generaatori Sora nii tarbijarakenduse kui ka ChatGPT integratsiooni. Samal ajal on Anthropic Claude’i tasuliste tellimuste arv sel aastal enam kui kahekordistunud ning lekkis info nende uuest võimsaimast mudelist nimega Claude Mythos.

📌 TÄHTIS FAKT: OpenAI tühistas ka 1 miljardi dollarilise Disney lepingu, et suunata ressursid maailma simulatsioonile ja robootikale. See näitab selgelt, et isegi suurimad mängijad peavad AI arendamisel tegema valusaid majanduslikke otsuseid.

See pole lihtsalt üks toode, mis suletakse. See on selge signaal kogu tööstusele: kõrged arvutuskulud ja intensiivne konkurents sunnivad ettevõtteid prioriteete ümber mängima. Why OpenAI killed Sora

Miks Sora suri?

OpenAI Sora oli kunagi üks enim kõneainet tekitanud AI-tooteid – võimalus luua realistlikke videoid tekstikirjelduse põhjal. Nüüd on see aga ajalugu. Põhjuseks toodi liigne arvutuskoormus, kasutajate arvu vähenemine ning tugev surve konkurentidelt, sealhulgas Google’i mudelitelt.

“As we focus and compute demand grows, the Sora research team continues to focus on world simulation research to advance robotics…”

See otsus vabastab olulisi ressursse, mida OpenAI suunab nüüd agentlike AI-de ja füüsilise maailma mõistmise poole. Sina, kes kasutad igapäevaselt tehisintellekti, pead aru saama: AI ei ole enam ainult lahe vidin, vaid karm äri.

Abstraktne pilt Anthropic Claude Mythos mudelist, mis sümboliseerib sammu edasi tehisintellekti võimekuses arutluses ja küberturvalisuses, tumedates toonides premium disain

Anthropic võidab tarbijate südameid – Claude Pro tellimused kahekordistusid

Samal ajal kui OpenAI teeb kärpeid, kasvab Anthropic kiiresti. Nende Claude Pro tellimuste arv on 2026. aastal enam kui kahekordistunud. Kasvu taga on Super Bowli reklaamid, uus Computer Use funktsioon ja tugev „ohutuse“ bränd.

Anthropic’s Claude popularity with paying consumers is skyrocketing

✅ MIDA TEHA?: Kui otsid usaldusväärset ja võimsat AI-tööriista, proovi Claude Pro’t. Paljud Eesti turundajad ja arendajad on juba üle läinud – see võib olla Sinu võimalus tõsta tootlikkust ilma liigse riskita.

Claude Mythos – järgmine suur samm?

Ja just siis, kui tundus, et Anthropic on tugev, lekkis nende valesti seadistatud andmebaasist info uuest mudelist. Claude Mythos (mõnikord nimetatud ka Capybara) on ettevõtte sõnul seni kõige võimsam mudel, mis toob „step change“ eriti arutluses, koodikirjutamises ja küberturvalisuses.

Anthropic confirms powerful new AI model after data leak

📌 TÄHTIS FAKT: Leke näitab, et ka parimatel AI-laboritel on turvalisusega probleeme. See on oluline meeldetuletus, et mitte kogu tundlikku tegevust ei tasu usaldada välistele teenustele.

Wikipedia keelas AI-sisu – usaldusväärsus enne kõike

Teine suur uudis puudutab iga teadmistega tegelevat inimest. Wikipedia keelas ametlikult LLM-ide kasutamise artiklite genereerimiseks või ümberkirjutamiseks. Põhjuseks on sagedased rikkumised usaldusväärsuse ja allikapõhisuse reeglite osas.

Lubatud on vaid tõlked ning väikesed keelelised parandused inimese range järelevalve all.

Wikipedia bans AI-generated content in its online encyclopedia

AI ja geopoliitika – koostöö lõpeb?

Samal perioodil nägime, kuidas NeurIPS konverentsi ümber kerkisid piirangud Hiina teadlastele USA sanktsioonide tõttu. AI-teadus ei ole enam puhas teadus – see on geopoliitika osa.

Apple palkas omalt poolt endise Google’i juhi Lilian Rinconi AI-turunduse asepresidendiks, et aidata Sirit paremaks muuta. Ja SoftBank kindlustas 40 miljardi dollari suuruse laenu, et veelgi rohkem OpenAI-sse investeerida.

Mida see Sulle tähendab? Praktiline tegevuskava

Sina ei pea ootama, kuni suured laborid otsuseid teevad. Siin on, mida saad juba täna teha:

  1. Testi mitut mudelit – ära jää ühe teenuse külge kinni. Proovi nii Claude’i kui ka teisi alternatiive.
  2. Kasuta AI-d sisuloome abivahendina, mitte lõpliku autorina. Wikipedia otsus tuletab meelde, et inimene peab alati järele valvama.
  3. Jälgi kulusid. Nagu Sora lugu näitab, ei ole kõik AI-funktsioonid jätkusuutlikud. Vali tööriistu, mis annavad sulle selget väärtust.
  4. Õpi agentlikke oskusi. Tulevik on agentides ja robootikas, mitte lihtsalt videote tegemises.
✅ MIDA TEHA?: Alusta täna sellega, et loed ühe Wikipedia artikli allikaid kriitiliselt läbi ja proovid Claude’iga sama teemat analüüsida. Võrdle tulemusi – see annab Sulle aimu, kus AI veel puudujääke näitab.

Loe lisaks Tehisarukast

AI uudised — 27. märts 2026

Kuidas kasutada tehisintellekti turvaliselt ja privaatselt

Kas sinu töö on järgmine? AI-kindlad ametid ja oskused Eestis aastal 2030

GPT-5.4 Thinking vs Claude Opus 4.6 – kumb mudel on parem

Allikad: The Verge, TechCrunch, Fortune, The Guardian, Reuters jt. Artikkel kajastab 27.–28. märtsi 2026 seisuga avaldatud uudiseid.

Sageli küsitud (FAQ)

Miks OpenAI Sora sulges?

Põhjuseks liigne arvutuskoormus, kasutajate arvu langus, tugev konkurents ning soov suunata ressursid kasumlikumatesse valdkondadesse nagu maailma simulatsioon ja robootika.

Mis on Claude Mythos?

Anthropici uus kõige võimsam mudel, mis toob „step change“ arutluses, koodis ja küberturvalisuses. Info lekkis valesti seadistatud andmebaasist.

Kas Wikipedia keelab igasuguse AI kasutamise?

Ei. Keelatud on artiklite genereerimine või ümberkirjutamine LLM-idega. Lubatud on tõlked ja väikesed keeleparandused inimese kontrolli all.

Leave a comment