🦞 Themeluesi i OpenClaw, Steinberger, i bashkohet OpenAI, roboti me burim të hapur bëhet fondacion ↗
Peter Steinberger po shkon drejt OpenAI për të nxitur "agjentë personalë", ndërsa vetë OpenClaw vendoset në një fondacion në mënyrë që të mbetet me kod të hapur (dhe i mbështetur). Kjo ndarje është… paksa e zgjuar - punëso ndërtuesin, mbaje projektin publik.
Propozimi i OpenClaw është çuditërisht praktik: klasifikimi i email-eve, dokumentet e sigurimit, regjistrimet e fluturimeve, detyrat e bezdisshme të administrimit të jetës. Është gjithashtu i ekzagjeruar në GitHub, dhe ky popullaritet ka sjellë shqetësime për sigurinë, veçanërisht nëse njerëzit e përdorin atë pa kujdes.
🪖 Pentagoni 'i ngopur' me reagimin antropogjen mbi përdorimin e modelit Claude AI nga ushtria, mund të ndërpresë lidhjet, thotë raporti ↗
Debati kryesor: Pentagoni dëshiron akses të gjerë, "për të gjitha qëllimet e ligjshme", dhe Anthropic ende po përpiqet të mbajë kufizime të rrepta rreth armëve plotësisht autonome dhe mbikëqyrjes masive. Ky është lloji i mosmarrëveshjes që tingëllon filozofik derisa dikush të thotë, "ne mund t'ju zëvendësojmë"
Një defekt i nënvlerësuar - zyrtarët nuk duan që modeli të bllokojë papritur rrjedhat e punës në mes të rrjedhës së punës, dhe nuk duan të negociojnë raste të skajshme përgjithmonë (e drejtë… por edhe çudi). Ekziston një tension i vërtetë "kush i mban çelësat" këtu, dhe nuk është i fshehtë.
🧠 Model ndërtimi i një startup-i për të parashikuar sjelljen njerëzore ↗
Simile tërhoqi një investim prej 100 milionë dollarësh për të ndërtuar një model “të të mësuarit të kufizuar” që synonte parashikimin e asaj që njerëzit mund të bënin - duke përfshirë, në mënyrë shumë specifike, parashikimin e pyetjeve të mundshme në gjëra të tilla si thirrjet për fitime. Objektiv i ngushtë, ambicie e madhe, kombinim paksa i çuditshëm.
Qasja mbështetet në intervista me njerëz të vërtetë plus të dhëna kërkimore mbi sjelljen, pastaj kryen simulime me agjentë të inteligjencës artificiale që synojnë të pasqyrojnë preferencat reale. Është si të krijosh një model moti për vendimet njerëzore… gjë që tingëllon e pamundur derisa të mos jetë e vërtetë.
🧑⚖️ Shtëpia e Bardhë i bën presion ligjvënësit të Utahut që të rrëzojë projektligjin për transparencën e inteligjencës artificiale ↗
Një shtytje në nivel shtetëror për transparencën e inteligjencës artificiale në Utah po merr kritika të drejtpërdrejta nga Shtëpia e Bardhë, me zyrtarët që i bëjnë thirrje sponsorit të projektligjit që të mos e çojë përpara. Hartimi i projektligjit ka të bëjë tërësisht me transparencën dhe sigurinë e fëmijëve - gjë që është e vështirë të debatohet vetëm në optikë të pastër.
Por beteja më e madhe është ajo e juridiksionit: kush i vendos rregullat, shtetet apo qeveria federale. Dhe po, është një rënkim - si dy njerëz që kapin të njëjtin timon dhe këmbëngulin se janë ata të qetët.
🎬 ByteDance zotohet të parandalojë përdorimin e paautorizuar të IP-së në mjetin video të IA-së pas kërcënimit të Disney-t ↗
Disney dërgoi një urdhër ndalimi për gjeneratorin e videos me inteligjencë artificiale të ByteDance, dhe ByteDance thotë se po forcon masat mbrojtëse për të parandaluar përdorimin e paautorizuar të IP-së dhe ngjashmërisë. Ankesa - thuhet - është se mjeti mund të nxjerrë në pah personazhe të njohur të franshizës sikur të ishin thjesht… afishe në domenin publik.
Është përplasja që të gjithë e panë të vinte: mjetet video virale të inteligjencës artificiale lëvizin me shpejtësi, studiot lëvizin në mënyrë gjyqësore dhe "do të shtojmë masa mbrojtëse" bëhet gjuha standarde e kërkimfaljes. Në një kthesë të papritur, teknologjia duket si magji - dhe ana ligjore duket si gravitet.
Pyetje të shpeshta
Çfarë do të thotë që themeluesi i OpenClaw iu bashkua OpenAI ndërsa OpenClaw u zhvendos në një fondacion?
Kjo sinjalizon një ndarje midis personit që ndërton "agjentë personalë" dhe projektit që mbetet i qeverisur publikisht. Bashkimi i Steinberger me OpenAI sugjeron se ai do të përqendrohet në avancimin e produkteve në stilin e agjentëve atje. Vendosja e OpenClaw në një fondacion ka për qëllim ta mbajë atë me burim të hapur dhe të mbështetur në mënyrë të qëndrueshme. Në praktikë, ky veprim synon të ruajë besimin e komunitetit ndërsa ndërtuesi shkon aty ku janë burimet.
Pse agjentët e inteligjencës artificiale në stilin OpenClaw janë të përqendruar në punë si emaili dhe dokumentet?
Sepse puna e "administrimit të jetës" është përsëritëse, e bazuar në rregulla dhe kërkon shumë kohë, duke e bërë atë një objektiv praktik për automatizimin. Shembujt këtu - klasifikimi i email-eve, dokumentet e sigurimit dhe regjistrimet e fluturimeve - janë detyra të ngushta me kritere të qarta suksesi. Ky fokus mund t'i bëjë agjentët të ndihen të vlefshëm më shpejt sesa asistentët më të hapur. Gjithashtu nënvizon pse kontrollet e kujdesshme të aksesit kanë rëndësi kur agjentët prekin llogaritë personale.
Si mund të vendosni në përdorim një agjent të inteligjencës artificiale me burim të hapur si OpenClaw pa krijuar probleme sigurie?
Trajtojeni si një program që mund të shohë të dhëna të ndjeshme, jo si një skript lodër. Një qasje e zakonshme është të bllokoni kredencialet, të kufizoni lejet në minimumin e kërkuar dhe të mbani regjistra dhe gjurmë auditimi. Ekzekutojeni atë në një mjedis të kufizuar dhe ndani atë nga sistemet me vlerë të lartë. Shumë shqetësime për sigurinë rrjedhin nga vendosja e pakujdesshme, veçanërisht kur njerëzit ekspozojnë pikat fundore ose tokenët pa mbrojtje të forta.
Pse Pentagoni është i pakënaqur me kufizimet e Anthropic për Claude për përdorim ushtarak?
Mosmarrëveshja përqendrohet te fushëveprimi dhe kontrolli: Pentagoni dëshiron akses të gjerë "për të gjitha qëllimet e ligjshme", ndërsa Anthropic përshkruhet si një model që mban kufizime të forta rreth armëve plotësisht autonome dhe mbikëqyrjes masive. Zyrtarët gjithashtu nuk duan që modelet të bllokojnë rrjedhat e punës në mes të rrjedhës ose të kërkojnë negociata të pafundme. Ky tension është më pak abstrakt nga sa tingëllon - bëhet fjalë për atë se kush vendos se çfarë mund të bëjë modeli në operacione reale.
Si po përpiqen startup-et të parashikojnë sjelljen njerëzore me anë të inteligjencës artificiale, dhe pse kjo duket e diskutueshme?
Shembulli këtu, Simile, po ndjek një model "të mësuarit të kufizuar" që synon parashikimin e asaj që njerëzit mund të bëjnë, duke përfshirë parashikimin e pyetjeve të mundshme në kontekste si thirrjet për të ardhurat. Qasja e përshkruar përzien intervistat me të dhënat e kërkimit të sjelljes dhe simulimet duke përdorur agjentë të IA-së që synojnë të pasqyrojnë preferencat reale. Ndihet e çuditshme sepse e zhvendos IA-në nga përgjigjja ndaj njerëzve në parashikimin e tyre. Sfida është mbajtja e pretendimeve të kufizuara dhe shmangia e besimit të tepërt.
Çfarë ndodh kur mjetet video të inteligjencës artificiale gjenerojnë personazhe të mbrojtura me të drejta autoriale, si në përplasjen ByteDance-Disney?
Modeli i raportuar është i njohur: një studio lëshon një urdhër ndalimi dhe platforma përgjigjet duke forcuar masat mbrojtëse për të parandaluar përdorimin e paautorizuar të IP-së ose ngjashmërisë. Në shumë mjete, masat mbrojtëse nënkuptojnë filtra më të rreptë të përmbajtjes, zbulim të përmirësuar të personazheve të njohshëm dhe zbatim më të qartë të politikave të përdoruesit. Konflikti themelor është shpejtësia kundrejt përgjegjësisë - gjenerimi i viruseve lëviz shpejt dhe zbatimi i të drejtave vepron si graviteti. Prisni më shumë nga këto përplasje ndërsa gjeneratorët e videos përhapen.