Lajme nga IA, 9 Mars 2026

Përmbledhje e Lajmeve të IA-së: 9 Mars 2026

⚖️ Anthropic padit për të bllokuar futjen në listën e zezë të Pentagonit për shkak të kufizimeve të përdorimit të inteligjencës artificiale

Anthropic e ka çuar në gjykatë betejën e saj me Pentagonin pasi është etiketuar si një rrezik për zinxhirin e furnizimit. Kompania thotë se ky veprim ishte hakmarrje e paligjshme për refuzimin e zbutjes së masave mbrojtëse rreth armëve autonome dhe mbikëqyrjes së brendshme - gjë që e vendos këtë mosmarrëveshje midis pikave më të nxehta në politikën e inteligjencës artificiale tani. ( Reuters )

Qeveria dëshiron fleksibilitet për "çdo përdorim të ligjshëm", ndërsa Anthropic argumenton se laboratorëve privatë duhet t'u lejohet ende të vendosin vija të forta sigurie. Kjo është bërë një nga testet më të qarta deri më tani nëse një kompani e inteligjencës artificiale mund t'u thotë "jo" kushteve ushtarake pa u kritikuar për këtë. ( Reuters )

🧑💻 Punonjësit në OpenAI dhe Google mbështesin padinë e Anthropic kundër Pentagonit

Kjo padi shpejt mori mbështetje edhe nga brenda laboratorëve rivalë. Gati 40 punonjës nga OpenAI dhe Google mbështetën Anthropic në një përmbledhje amicus, duke argumentuar se hakmarrja ndaj firmave për vijat e kuqe të sigurisë së inteligjencës artificiale bie ndesh me interesin publik. ( The Verge )

Pra, po, konkurrentët e kanë gjetur veten papritur në të njëjtën anë - të paktën në këtë pikë. Përmbledhja përqendrohet në mbikëqyrjen masive dhe armët autonome të pabesueshme, gjë që e bën të gjithë çështjen të duket më pak si sulm standard i Silicon Valley dhe më shumë si një vijë e vërtetë industriale në rërë... ose baltë, ndoshta. ( The Verge )

🛡️ OpenAI blen Promptfoo për të siguruar agjentët e saj të IA-së

OpenAI tha se po blen Promptfoo, një startup të fokusuar në mbrojtjen e modeleve të mëdha gjuhësore nga sulmet kundërshtare. Plani është që teknologjia e saj të përfshihet në OpenAI Frontier, platformën e ndërmarrjeve të kompanisë për agjentët e IA-së. ( TechCrunch )

Është një veprim domethënës. Të gjithë duan që inteligjenca artificiale e agjentëve të bëjë më shumë, më shpejt, kudo - por ana e sigurisë ka mbetur prapa, qoftë pak apo shumë. Kjo marrëveshje sugjeron që OpenAI mendon se gara e ardhshme e madhe nuk është vetëm për agjentë më të zgjuar, por edhe për ata më të sigurt. ( TechCrunch )

🧪 Anthropic lançon një mjet për rishikimin e kodit për të kontrolluar përmbytjen e kodit të gjeneruar nga inteligjenca artificiale

Anthropic lançoi Code Review brenda Claude Code, i cili synon ekipet që mbyten në kërkesat e tërheqjes të krijuara nga mjetet e kodimit të IA-së. Ai përdor agjentë të shumtë paralelisht për të skanuar kodin, për të sinjalizuar problemet logjike, për të renditur ashpërsinë dhe për të lënë komente direkt në GitHub. ( TechCrunch )

Prezantimi është mjaft i thjeshtë - IA po gjeneron kod më shpejt sesa njerëzit mund ta shqyrtojnë atë në mënyrë të arsyeshme, kështu që tani IA duhet ta shqyrtojë IA-në. Një marrëveshje paksa e ngjashme me atë që e ha bishtin gjarprit, por praktike. Anthropic thotë se është e orientuar drejt përdoruesve të ndërmarrjeve që tashmë po shohin një prodhim masiv të kodit nga Claude Code. ( TechCrunch )

💰 Nscale e mbështetur nga Nvidia vlerësohet në 14.6 miliardë dollarë në një raund të ri financimi

Kompania britanike e infrastrukturës së inteligjencës artificiale, Nscale, mblodhi 2 miliardë dollarë në një raund të Serisë C, duke arritur një vlerësim prej 14.6 miliardë dollarësh. Mbështetësit përfshinin Aker, 8090 Industries, Nvidia, Citadel, Dell dhe Jane Street - që përbën një votë besimi mjaft të rëndësishme. ( Reuters )

Kjo ka rëndësi sepse nuk është një tjetër lançim modeli apo ndryshim i chatbot-it. Është ana e bumit me zgjedhje dhe lopata - informatika, infrastruktura, kapaciteti, të gjitha makineritë e rënda pas perdes. Ndoshta jo joshëse, por aty po shkojnë shumë para. ( Reuters )

🧠 Laboratorët AMI të Yann LeCun mbledhin 1.03 miliardë dollarë për të ndërtuar modele botërore

Sipërmarrja e re e Yann LeCun, AMI Labs, mblodhi 1.03 miliardë dollarë me një vlerësim paraprak prej 3.5 miliardë dollarësh. Kompania po ndjek "modele botërore" - sisteme të inteligjencës artificiale që synojnë të mësojnë nga vetë realiteti dhe jo kryesisht nga gjuha. ( TechCrunch )

Ky është një reagim i drejtpërdrejtë filozofik ndaj konsensusit aktual të LLM-së, dhe një reagim shumë i prerë gjithashtu. LeCun ka argumentuar për vite me radhë se modelet e sotme gjuhësore nuk do të na çojnë deri në inteligjencën e nivelit njerëzor, kështu që kjo ngritje e kthen këtë argument në një eksperiment shumë të kushtueshëm. ( TechCrunch )

🇨🇳 Qendrat kineze të teknologjisë promovojnë agjentin e inteligjencës artificiale OpenClaw pavarësisht paralajmërimeve për sigurinë

Disa qeveri lokale kineze po mbështesin OpenClaw, një agjent të inteligjencës artificiale që po përhapet me shpejtësi pavarësisht shqetësimeve të sigurisë të lidhura me aksesin e tij në të dhënat personale. Pra, atmosfera zyrtare duket të jetë: po, ka rreziqe - dhe po, le ta shkallëzojmë gjithsesi. ( Reuters )

Kjo ndarje është historia. Qendrat lokale duan rritjen ekonomike dhe vrullin e ekosistemit, ndërsa rregullatorët po paralajmërojnë për ekspozimin ndaj të dhënave. Tashmë është një model i njohur i inteligjencës artificiale - vrapo fillimisht, rregullo parmakët më vonë, ose të paktën kështu duket. ( Reuters )

Pyetje të shpeshta

Pse Anthropic po padit Pentagonin për kufizimet e përdorimit të inteligjencës artificiale?

Anthropic thotë se Pentagoni e etiketoi atë si një rrezik për zinxhirin e furnizimit pasi kompania refuzoi kushte më të gjera që mund të shtriheshin në armët autonome dhe mbikëqyrjen vendase. Kjo e bën padinë më shumë sesa thjesht statusin e shitësit. Ajo po teston nëse një laborator i inteligjencës artificiale mund të mbajë në vend kufij të fortë sigurie dhe të konkurrojë ende për punë qeveritare pa u penalizuar.

Pse punonjësit e OpenAI dhe Google po e mbështesin Anthropic në këtë mosmarrëveshje për sigurinë e inteligjencës artificiale?

Shkurtimi amicus sinjalizon se shumë njerëz brenda laboratorëve rivalë e shohin këtë si një çështje sigurie të inteligjencës artificiale që krijon precedent, jo thjesht një luftë midis një kompanie dhe një agjencie. Shqetësimi i tyre është se ndëshkimi i një shitësi për ruajtjen e vijave të kuqe mund të ushtrojë presion mbi tregun më të gjerë për të dobësuar mbrojtjet. Në praktikë, kjo mund të formësojë mënyrën se si negociohen kontratat e ardhshme të mbrojtjes dhe të sektorit publik për inteligjencën artificiale.

Çfarë mund të ndryshojë rasti Antropik-Pentagon për politikat e inteligjencës artificiale dhe kontratat e mbrojtjes?

Nëse Anthropic fiton, kompanitë e inteligjencës artificiale mund të kenë një bazë më të fortë për të përcaktuar përdorimet e papranueshme edhe kur shesin në mjedise të ndjeshme qeveritare. Nëse humbet, agjencitë mund të fitojnë ndikim për të kërkuar terma më të gjera të "përdorimit të ligjshëm" nga furnizuesit. Sidoqoftë, kjo mosmarrëveshje ka të ngjarë të ndikojë në gjuhën e prokurimit, shqyrtimet e riskut dhe mënyrën se si shkruhen parmakët e sigurisë në marrëveshjet e mbrojtjes.

Pse OpenAI bleu Promptfoo për agjentët e IA-së?

Promptfoo njihet për testimin e modeleve të mëdha gjuhësore kundër kërkesave kundërshtare dhe dobësive të tjera të sigurisë. Përfshirja e këtij lloj mjeti në platformën e agjentëve të ndërmarrjeve të OpenAI sugjeron që kompania e sheh vendosjen më të sigurt si një avantazh konkurrues dhe jo si një detyrë anësore. Ndërsa agjentët e IA-së marrin përsipër punë më të konsiderueshme, testimi i rezistencës dhe abuzimit bëhet shumë më i vështirë për t'u injoruar.

Si mund ta përballojnë ekipet vërshimin e kodit të gjeneruar nga inteligjenca artificiale në mënyrë më të sigurt?

Funksioni i ri i Anthropic, Rishikimi i Kodit brenda Claude Code, synon ekipet e mbingarkuara nga kërkesat e tërheqjes të gjeneruara nga mjetet e kodimit të IA-së. Ai përdor agjentë të shumtë paralelisht për të dalluar problemet logjike, për të renditur ashpërsinë dhe për të lënë komente në GitHub. Zakonisht, mjete si ky ndihmojnë në klasifikimin e vëllimit, por rishikuesit njerëzorë ende kanë rëndësi për arkitekturën, kontekstin dhe miratimin përfundimtar.

Pse po investohet kaq shumë në infrastrukturën e inteligjencës artificiale tani?

Raundi i fundit i financimit i Nscale thekson se industria e inteligjencës artificiale po investon ende një kapital të madh në informatikë, infrastrukturë dhe kapacitet. Ky shpenzim mund të jetë më pak i dukshëm sesa një lançim modeli i shndritshëm, por ai mbështet gjithçka tjetër. Kur kërkesa për trajnim dhe vendosje vazhdon të rritet, kompanitë që shesin kazma dhe lopata shpesh bëhen disa nga fituesit më të mëdhenj.

Cilat janë modelet botërore dhe pse Yann LeCun po vë bast mbi to?

Modelet botërore janë sisteme të inteligjencës artificiale të projektuara për të mësuar nga mënyra se si sillet bota, në vend që të mbështeten kryesisht në të dhënat gjuhësore. Kjo ka rëndësi sepse Yann LeCun ka argumentuar prej kohësh se modelet gjuhësore më vete nuk kanë gjasa të arrijnë inteligjencën e nivelit njerëzor. AMI Labs e kthen këtë pikëpamje në një bast të madh komercial në një rrugë të ndryshme për kërkimin e avancuar të inteligjencës artificiale.

Pse qendrat kineze të teknologjisë po e mbështesin OpenClaw pavarësisht paralajmërimeve për sigurinë?

Historia e OpenClaw tregon një ndarje të njohur brenda tregjeve të teknologjisë që lëvizin me shpejtësi: qeveritë lokale duan rritje, subvencione dhe vrull të ekosistemit, ndërsa rregullatorët shqetësohen për ekspozimin dhe sigurinë e të dhënave. Mbështetja e agjentit pavarësisht paralajmërimeve sugjeron se stimujt ekonomikë po mbizotërojnë në disa vende. Për vëzhguesit, është një tjetër kujtesë se miratimi shpesh lëviz më shpejt se mbikëqyrja.

Lajmet e djeshme të inteligjencës artificiale: 8 Mars 2026

Gjeni IA-në më të fundit në Dyqanin Zyrtar të Asistentëve të IA-së

Rreth Nesh

Kthehu te blogu