🧠 OpenAI bashkëpunon me Cerebras ↗
OpenAI thotë se po shton 750MW të llogaritjes së IA-së me vonesë ultra të ulët nëpërmjet Cerebras - në thelb një përpjekje për t'i bërë përgjigjet të ndihen më shumë "në kohë reale" në vend të "shko bëj çaj, kthehu më vonë".
Ideja mbetet e thjeshtë: ciklet më të shpejta të nxjerrjes së përfundimeve (pyet - mendo - përgjigju) nënkuptojnë që njerëzit qëndrojnë më gjatë dhe kryejnë ngarkesa pune më të rënda… të cilat, po, gjurmohen. Kapaciteti shtohet në faza, me më shumë që do të hyjnë në punë deri në vitin 2028.
🔍 Google përgjon email-et dhe historikun e YouTube në përpjekje për inteligjencë artificiale të personalizuar ↗
Gemini i Google po bëhet më i “koduar sipas jush” duke nxjerrë të dhëna nga gjëra si Gmail, Search dhe historiku i YouTube - nëse e zgjidhni gjithsesi (dhe është i çaktivizuar si parazgjedhje). Është versioni i chatbot-it të telefonit tuaj që e di që keni uri përpara se të keni.
Ideja është që Binjakët mund të nxjerrin përfundime për preferencat dhe kontekstin, në mënyrë që përgjigjet të duken më pak të përgjithshme dhe më shumë sikur të kujtojnë vërtet jetën tënde. I dobishëm - dhe gjithashtu lloji i gjësë që të bën të ndalesh në mes të lëvizjes dhe të thuash, "prit pak, di shumë"
🧩 Shitjet e një çipi të fuqishëm të inteligjencës artificiale Nvidia në Kinë marrin dritën jeshile, me kushte ↗
SHBA-të miratuan shitjet e çipave AI H200 në Kinë - por me një mori masash mbrojtëse të bashkangjitura (prioritet për furnizimin në SHBA, hapa shtesë shqyrtimi, kufizime rreth vendit ku mund të përfundojnë çipat).
Ligjvënësit janë të ndarë - disa e shohin atë si një rrezik për sigurinë kombëtare, të tjerë si një lojë konkurrueshmërie (sepse nëse nuk shet ti, dikush tjetër do ta bëjë... ose Kina thjesht ndërton më shpejt). Është një nga ato lëvizje politike që është njëkohësisht "strategjike" dhe e ngatërruar, në një farë mënyre.
🛡️ Startupi belg i sigurisë kibernetike Aikido arrin statusin e njëbrirëshit me një raund të ri financimi ↗
Aikido Security arriti një vlerësim prej 1 miliard dollarësh pasi mblodhi 60 milionë dollarë , duke u mbështetur fort në këndvështrimin e "mbrojtësve të sigurisë për zhvilluesit", ndërsa kodimi i asistuar nga inteligjenca artificiale vazhdon… të shumëfishojë kodin, gabimet dhe surprizat e paparashikuara.
Ata po e paraqesin atë si siguri që i jep përparësi zhvilluesve, e cila automatikisht sinjalizon rreziqet pa e kthyer çdo sprint në një makth përputhshmërie. Pjesa paksa e çuditshme është se sa shpejt janë rritur - tregu po paguan qartë për "ju lutem ndaloni kodin tim të inteligjencës artificiale të sjellë dobësi".
👩💻 Anthropic zgjeron Claude Code përtej detyrave të zhvilluesve me Cowork ↗
Anthropic po e shtyn Claude Code drejt një atmosfere më të gjerë "puno me mua" nëpërmjet Cowork - më pak thjesht ndihmë në kodim, më shumë si një asistent bashkëpunues që mund të vendoset brenda rrjedhave të punës.
Është pjesë e një trendi më të madh ku asistentët e kodit nuk janë më një plotësim automatik i sofistikuar dhe fillojnë të sillen si shokë skuadre gjysmë-autonomë… gjë që është emocionuese, ose alarmuese, ose të dyja - varësisht se si shkoi vlerësimi juaj i fundit i marrëdhënieve me publikun.
🧯 depthfirst njofton Serinë A prej 40 milionë dollarësh për të siguruar softuerin botëror ↗
depthfirst mblodhi 40 milionë dollarë për të ndërtuar një qasje të bazuar në inteligjencën artificiale për sigurinë e softuerëve - lloji që synon të kapë dobësitë reale me më pak alarme të rreme (ëndrra e përjetshme, në të vërtetë).
Ata po pozicionohen si një “laborator i aplikuar i inteligjencës artificiale” për sigurinë, me fonde që synojnë shkallëzimin e kërkimit dhe produktit. Nëse inteligjenca artificiale po ndihmon të shkruhet më shumë kod më shpejt, kundërveprimi është në thelb që inteligjenca artificiale po ndihmon në mbrojtjen e tij më shpejt - një gjarpër që ha një gjarpër, i veshur me një pallto.
Pyetje të shpeshta
Çfarë do të thotë partneriteti i OpenAI me Cerebras për shpejtësinë e reagimit?
OpenAI thotë se partneriteti Cerebras shton 750 MW llogaritje të inteligjencës artificiale me vonesë ultra të ulët, që synon t'i bëjë përgjigjet të ndihen më shumë në kohë reale. Përfundimi praktik është se ciklet e nxjerrjes së përfundimeve më të shpejta - pyet, mendo, përgjigju - në mënyrë që ndërveprimet të jenë më të shpejta. Gjithashtu, kjo mund t'i bëjë ngarkesat më të rënda të punës të ndihen më të lehta, pa pauza të gjata dhe të vështira. Kapaciteti është planifikuar të zbatohet në faza deri në vitin 2028.
Kur do të jetë në dispozicion 750MW i sistemit kompjuterik Cerebras?
Njoftimi e paraqet atë si një shpërndarje graduale, me më shumë kapacitet që do të hyjë në punë deri në vitin 2028 në vend që të gjitha menjëherë. Me rampat graduale, fitimet e hershme kanë tendencë të shfaqen fillimisht, pastaj të zgjerohen ndërsa infrastruktura zgjerohet. Nëse po ndiqni ndikimin, sinjalet më të qarta zakonisht shfaqen si vonesë më e ulët dhe performancë më e qëndrueshme nën ngarkesë. Titulli është një ndërtim shumëvjeçar.
Si e përdor Google Gemini historikun e Gmail, Search dhe YouTube për personalizim?
Plani i Google është ta bëjë Gemini më të personalizuar duke përdorur burime si Gmail, Search dhe historiku i YouTube - por vetëm nëse e zgjidhni. Përshkruhet si i çaktivizuar si parazgjedhje, gjë që ka rëndësi për privatësinë dhe përcaktimin e pritjeve. Qëllimi është që Gemini të nxjerrë përfundime për preferencat dhe kontekstin tuaj në mënyrë që përgjigjet të duken më pak të përgjithshme. Shumë përdorues do ta peshojnë komoditetin kundrejt sasisë së "memories" që ndihen rehat ta aktivizojnë.
A aktivizohet automatikisht personalizimi i Gemini dhe cili është kompromisi i privatësisë?
Në këtë lançim, Google e pozicionon këtë funksion si opsion për t'u aktivizuar dhe çaktivizuar si parazgjedhje. Kjo do të thotë që ju do të zgjidhnit të lejonit Gemini të përdorte sinjale nga produkte si Gmail ose historiku i YouTube për të përshtatur përgjigjet. Kompromisi është i thjeshtë: më shumë kontekst mund të përmirësojë rëndësinë, por gjithashtu rrit sasinë e të dhënave personale të përfshira në përvojë. Një qasje e zakonshme është aktivizimi i tij në mënyrë selektive dhe rishikimi i rregullt i cilësimeve.
Çfarë kushtesh vendosi SHBA-ja për shitjet e çipave Nvidia H200 në Kinë?
Miratimi i përshkruar këtu vjen me masa mbrojtëse, duke përfshirë përparësinë për furnizimin në SHBA, hapa shtesë shqyrtimi dhe kufizime rreth vendit ku mund të përfundojnë çipat në fund të fundit. Debati është gjithashtu i shpjeguar: disa ligjvënës shohin rrezik për sigurinë kombëtare, ndërsa të tjerë argumentojnë konkurrencën - nëse kompanitë amerikane nuk shesin, furnizuesit alternativë ose zëvendësuesit vendas mund të përshpejtohen. Është një veprim politik me qëllim strategjik dhe kompromise të ndërlikuara.
Pse startup-et e sigurisë së inteligjencës artificiale si Aikido dhe depthfirst po mbledhin shuma të mëdha parash pikërisht tani?
Tema është se kodimi i asistuar nga inteligjenca artificiale po shumëfishon prodhimin e kodit - dhe bashkë me të, defektet dhe dobësitë e paparashikuara - kështu që kërkesa për mbrojtje miqësore për zhvilluesit është në rritje. Aikido pozicionohet si siguri "e parë për zhvilluesit" që sinjalizon rreziqet pa e kthyer çdo sprint në fërkim të pajtueshmërisë, ndërsa depthfirst paraqet një qasje të bazuar në inteligjencën artificiale që synon kapjen e problemeve reale me më pak alarme të rreme. Ndërsa vëllimi i kodit rritet, "sigurojeni më shpejt" bëhet një zë buxheti, jo një gjë e mirë për t'u pasur.