Lajme nga IA, 9 shkurt 2026

Përmbledhje e Lajmeve të IA-së: 9 Shkurt 2026

🏗️ SHBA-të i shtyjnë kompanitë drejt një qendre të re të të dhënave të inteligjencës artificiale, raporton Politico

Raportohet se SHBA-të po përpiqen t'i bindin firmat e mëdha të nënshkruajnë një marrëveshje të re "kompakte" për qendrat e të dhënave të inteligjencës artificiale - në thelb një sërë angazhimesh se si duhet të trajtohen këto ndërtime gjigante të kompjuterëve.

Detajet janë ende pak të mjegullta (klasike), por drejtimi duket i njohur: standardizimi i pritjeve rreth energjisë, sigurisë dhe ndoshta edhe raportimit - një version i sjellshëm i politikës së "ju lutem mos e lini këtë të shndërrohet në një rrëmujë"

🎬 Google paditet nga Autodesk për softuer të mundësuar nga inteligjenca artificiale për krijimin e filmave

Autodesk po padit Google për emrin “Flow”, duke thënë se e ka përdorur tashmë “Flow” për softuerët e prodhimit dhe menaxhimit të efekteve vizuale - dhe mjeti i Google për krijimin e filmave me inteligjencë artificiale mbërriti me të njëjtën markë.

Detaji më i mprehtë është pretendimi se Google më parë sugjeroi se nuk do ta komercializonte emrin... pastaj vazhdoi dhe vazhdoi të ndiqte markat tregtare gjithsesi. Është një luftë për markat tregtare, sigurisht, por ajo mbart gjithashtu një energji të vogël të tipit "platformë e madhe kundër prodhuesit të specializuar të mjeteve".

🏥 Studimi tregon se inteligjenca artificiale nuk është më e mirë se metodat e tjera për pacientët që kërkojnë këshilla mjekësore

Një studim i ri zbuloi se përdorimi i inteligjencës artificiale për këshilla mjekësore për pacientët nuk i tejkaloi qasjet e tjera - gjë që nuk duket për t'u habitur dhe paksa qetësuese, varësisht nga sa shumë i keni vëzhguar me kujdes kontrolluesit e simptomave.

Kjo nuk do të thotë që inteligjenca artificiale është e padobishme në kujdesin shëndetësor - thjesht se "pyet një robot" nuk është automatikisht një përmirësim në krahasim me opsionet ekzistuese, veçanërisht kur saktësia dhe siguria janë thelbi i çështjes.

🩺 Aplikacionet dhe robotët e mundësuar nga inteligjenca artificiale po futen me forcë në mjekësi. Mjekët kanë pyetje.

Një hetim thellohet në mënyrën se si aplikacionet shëndetësore të inteligjencës artificiale dhe chatbot-et po përhapen në hapësirat klinike - ndonjëherë më shpejt sesa mund të përballojnë udhëzimet, mbikëqyrja ose provat e thjeshta.

Mjekët po ngrenë shqetësime në lidhje me besueshmërinë, dëmtimin e pacientit dhe kush është përgjegjës kur një robot jep këshilla që tingëllojnë të sigurta, por të gabuara… si një sistem navigimi që këmbëngul të futesh në një liqen me makinë, përveçse me ilaçe.

📈 Drejtori ekzekutiv i OpenAI thotë se ChatGPT ka rikthyer rritjen mujore mbi 10%, raporton CNBC

Drejtori ekzekutiv i OpenAI thuhet se tha se ChatGPT është rikthyer në një rritje mujore prej mbi 10% - gjë që është një gjë e madhe nëse supozojmë se faza "të gjithë e kanë provuar tashmë" ka arritur kulmin.

Kjo sugjeron që ose përdoruesit e rinj po vazhdojnë të vijnë me vërshim, ose përdoruesit ekzistues po gjejnë më shumë arsye për të qëndruar - ose të dyja. Sidoqoftë, produkti po sillet më pak si një modë dhe më shumë si infrastrukturë… ose të paktën kështu duket.

Pyetje të shpeshta

Cili është "kompakti" i propozuar i qendrës së të dhënave të inteligjencës artificiale që po shtyn përpara SHBA-të?

Përshkruhet si një sërë angazhimesh që firmat e mëdha do të pranonin kur ndërtonin ose operonin qendra të mëdha të të dhënave të inteligjencës artificiale. Qëllimi është të standardizohen pritjet në mënyrë që këto projekte masive kompjuterike të mos bëhen të shpërndara ose të paqëndrueshme midis kompanive. Ndërsa specifikat ende duken të paqarta, theksi duket se qëndron në territorin praktik: përdorimi i energjisë, siguria dhe ndoshta një formë raportimi.

Pse SHBA-të do të donin që kompanitë të nënshkruanin një marrëveshje për qendrat e të dhënave të inteligjencës artificiale?

Një marrëveshje kompakte mund të krijojë pritje të përbashkëta bazë pa i detyruar ligjvënësit të hartojnë një rregull të ri për çdo rast të skajshëm. Me qendrat e të dhënave të inteligjencës artificiale që zgjerohen me shpejtësi, politikëbërësit shpesh shqetësohen për ndikimin në rrjet, rreziqet e sigurisë dhe transparencën operacionale. Një strategji e zakonshme është të harmonizohen aktorët më të mëdhenj herët, në mënyrë që praktikat e shëndosha të përhapen më shpejt dhe llogaridhënia të jetë më e lehtë për t'u gjurmuar nëse lindin probleme.

Çfarë lloj angazhimesh mund të përfshihen në një marrëveshje për qendrën e të dhënave të inteligjencës artificiale?

Bazuar në atë që është propozuar, angazhimet mund të mbulojnë planifikimin e energjisë (si furnizohet dhe menaxhohet energjia), masat e sigurisë (fizike dhe kibernetike) dhe një formë raportimi ose zbulimi. Në shumë tubacione, raportimi bëhet shtresa "e lehtë për t'u zbatuar" që i bën standardet të lexueshme dhe të matshme. Nëse marrëveshja është vullnetare, këto angazhime mund të formulohen si udhëzime që më vonë ndihmojnë në formësimin e rregullores.

Çfarë është padia në lidhje me mjetin e Google për krijimin e filmave me anë të inteligjencës artificiale të quajtur “Flow”?

Autodesk po padit Google për emrin "Flow", duke argumentuar se Autodesk e ka përdorur tashmë emrin "Flow" për softuerët e prodhimit dhe menaxhimit të efekteve vizuale. Mosmarrëveshja është formuluar si një konflikt marke tregtare dhe marke, së bashku me një pretendim se Google më parë sugjeroi se nuk do ta komercializonte emrin, por më vonë vazhdoi të kërkonte marka tregtare gjithsesi. Këto raste shpesh lidhen me përparësinë e markës dhe mundësinë e konfuzionit.

Çfarë do të thotë që inteligjenca artificiale nuk ishte më e mirë se metodat e tjera për këshillimin mjekësor të pacientëve?

Sugjeron që “pyet një robot” nuk është automatikisht më e saktë ose më e sigurt se mënyrat ekzistuese se si pacientët kërkojnë udhëzime. Kjo mund të ndihet qetësuese nëse shqetësoheni për përgjigjet tepër të sigurta nga kontrolluesit e simptomave ose chatbot-et. Nuk përjashton vlerën e mundshme të IA-së në kujdesin shëndetësor, por nënvizon nevojën për prova, mbikëqyrje dhe integrim të kujdesshëm aty ku gabimet mund të shkaktojnë dëm.

Pse mjekët janë të shqetësuar për aplikacionet shëndetësore dhe chatbot-et e mundësuar nga inteligjenca artificiale?

Mjekët shqetësohen për besueshmërinë, dëmtimin e pacientit dhe kush është përgjegjës kur një mjet ofron këshilla të sigurta, por të pasakta. Shqetësimi nuk është vetëm saktësia; është edhe mënyra se si pacientët i interpretojnë rezultatet dhe nëse sistemi i shtyn njerëzit drejt vetëmenaxhimit të pasigurt. Në mjediset klinike, përgjegjësia e paqartë mund të bëhet një rrezik i madh: pacientët mund t'i besojnë mjetit, klinicistët mund të mos e kontrollojnë atë dhe udhëzimet mund të mbeten prapa në miratim.

Lajmet e djeshme të inteligjencës artificiale: 8 shkurt 2026

Gjeni IA-në më të fundit në Dyqanin Zyrtar të Asistentëve të IA-së

Rreth Nesh

Kthehu te blogu