Përgjigje e shkurtër: Zhvilluesit që përdorin IA gjeneruese janë përgjegjës për të gjithë sistemin, jo vetëm për rezultatin e modelit. Kur IA ndikon në vendime, kod, privatësi ose besimin e përdoruesit, ata duhet të zgjedhin aplikacione të sigurta, të verifikojnë rezultatet, të mbrojnë të dhënat, të zvogëlojnë dëmin dhe të sigurohen që njerëzit mund të rishikojnë, anashkalojnë dhe korrigjojnë gabimet.
Përmbledhjet kryesore:
Verifikimi : Trajtojini rezultatet e përpunuara si të pabesueshme derisa burimet, testet ose shqyrtimi njerëzor t'i konfirmojnë ato.
Mbrojtja e të dhënave : Minimizoni të dhënat e menjëhershme, hiqni identifikuesit dhe siguroni regjistrat, kontrollet e aksesit dhe shitësit.
Drejtësia : Testoni në të gjitha demografitë dhe kontekstet për të kapur stereotipet dhe modelet e pabarabarta të dështimit.
Transparenca : Etiketoni qartë përdorimin e IA-së, shpjegoni kufizimet e saj dhe ofroni shqyrtim ose ankesë njerëzore.
Përgjegjshmëria : Caktoni pronarë të qartë për vendosjen, incidentet, monitorimin dhe rikthimin para lançimit.

Artikuj që mund t'ju pëlqejnë të lexoni pas këtij:
🔗 Mjetet më të mira të IA-së për zhvilluesit e softuerëve: Asistentët më të mirë të kodimit të mundësuar nga IA
Krahasoni asistentët më të mirë të kodimit të IA-së për rrjedha pune zhvillimi më të shpejta dhe më të pastra.
🔗 10 mjetet më të mira të inteligjencës artificiale për zhvilluesit për të rritur produktivitetin
Listë e renditur e mjeteve të inteligjencës artificiale të zhvilluesve për kodim dhe shpejtësi më të zgjuar.
🔗 Pse inteligjenca artificiale mund të jetë e dëmshme për shoqërinë dhe besimin
Shpjegon dëmet në botën reale: paragjykimet, privatësia, vendet e punës dhe rreziqet e dezinformimit.
🔗 A ka shkuar IA shumë larg në vendimet me rreziqe të larta?
Përcakton kur IA kalon kufijtë: mbikëqyrje, falsifikime të thella, bindje, mungesë pëlqimi.
Pse përgjegjësia e zhvilluesve që përdorin IA Gjenerative ka më shumë rëndësi sesa mendojnë njerëzit
Shumë gabime në softuer janë bezdisëse. Një buton prishet. Një faqe ngarkohet ngadalë. Diçka bllokohet dhe të gjithë rënkojnë.
Problemet gjeneruese të IA-së mund të jenë të ndryshme. Ato mund të jenë delikate.
Një model mund të tingëllojë i sigurt ndërkohë që është gabim. Profili NIST GenAI Mund të riprodhojë paragjykime pa shenja paralajmëruese të dukshme. Profili NIST GenAI Mund të ekspozojë të dhëna të ndjeshme nëse përdoren pa kujdes. OWASP Top 10 për Aplikacionet LLM Tetë pyetjet e ICO-s për IA-në gjeneruese Mund të prodhojë kod që funksionon - derisa të dështojë në prodhim në një mënyrë thellësisht të sikletshme. OWASP Top 10 për Aplikacionet LLM Pak a shumë si të punësosh një praktikant shumë entuziast i cili nuk fle kurrë dhe herë pas here shpik fakte me besim mahnitës.
Kjo është arsyeja pse përgjegjësia e zhvilluesve që përdorin IA Gjenerative është më e madhe sesa zbatimi i thjeshtë. Zhvilluesit nuk po ndërtojnë më vetëm sisteme logjike. Ata po ndërtojnë sisteme probabilistike me skaje të paqarta, rezultate të paparashikueshme dhe pasoja reale sociale. NIST AI RMF
Kjo do të thotë që përgjegjësia përfshin:
-
të kuptuarit e kufijve të modelit NIST AI RMF
-
Mbrojtja e privatësisë së përdoruesit Udhëzimet e ICO-së mbi inteligjencën artificiale dhe mbrojtjen e të dhënave
-
reduktimin e rezultateve të dëmshme Profili NIST GenAI
-
Kontrollimi i saktësisë përpara se të jepet besimi Profili NIST GenAI
-
duke e bërë të qartë rolin e njeriut Parimet e OECD-së për IA-në
-
hartimi i shtigjeve rezervë kur inteligjenca artificiale dështon Parimet e OECD-së për inteligjencën artificiale Udhëzimet e NCSC-së për inteligjencën artificiale të sigurt
-
dokumentimi i qartë i sistemit sipas Parimeve të OECD-së për Inteligjencën Artificiale
E dini si shkon - kur një mjet duket magjik, njerëzit pushojnë së vënë në dyshim atë. Zhvilluesit nuk mund të jenë kaq të relaksuar.
Çfarë e bën një version të mirë të përgjegjësisë së Zhvilluesve që përdorin IA Gjenerative? 🛠️
Një version i mirë i përgjegjësisë nuk është performativ. Nuk është thjesht shtimi i një sqarimi në fund dhe quatja e tij etikë. Ajo shfaqet në zgjedhjet e dizajnit, zakonet e testimit dhe sjelljen e produktit.
Ja se si duket zakonisht përgjegjësisë së Zhvilluesve që përdorin IA Gjenerative
-
Përdorim i qëllimshëm i NIST AI RMF
-
IA po përdoret për një problem të vërtetë, jo po futet në produkt sepse tingëllon në modë.
-
-
Mbikëqyrja njerëzore Parimet e OECD-së për Inteligjencën Artificiale
-
Njerëzit mund të rishikojnë, korrigjojnë, mbivendosin ose refuzojnë rezultatet.
-
-
Siguria sipas dizajnit Udhëzimet e NCSC për inteligjencën artificiale të sigurt
-
Kontrollet e riskut ndërtohen herët, nuk ngjiten me shirit ngjitës më vonë.
-
-
Transparenca Parimet e OECD-së për IA- në Përmbledhje e Aktit të IA-së të Komisionit Evropian
-
Përdoruesit e kuptojnë kur përmbajtja gjenerohet nga inteligjenca artificiale ose ndihmohet nga ajo.
-
-
Tetë pyetjet e ICO-së për kujdesin ndaj të dhënave
-
Informacioni i ndjeshëm trajtohet me kujdes dhe qasja është e kufizuar.
-
-
Kontrollet e drejtësisë Profili NIST GenAI Udhëzimet e ICO-së mbi IA-në dhe mbrojtjen e të dhënave
-
Sistemi testohet për paragjykime, performancë të pabarabartë dhe modele të dëmshme.
-
-
Monitorim i vazhdueshëm i nga NIST AI RMF NCSC
-
Nisja nuk është vija e finishit. Është më shumë si fishkëllima e fillimit.
-
Nëse kjo tingëllon shumë, atëherë... është. Por kjo është çështja kur punon me teknologji që mund të ndikojë në vendime, besime dhe sjellje në shkallë të gjerë. Parimet e IA-së për OECD-në
Tabela Krahasuese - përgjegjësia kryesore e Zhvilluesve që përdorin IA Gjenerative me një shikim 📋
| Zona e përgjegjësisë | Kush ndikon | Praktika e përditshme e zhvilluesit | Pse ka rëndësi |
|---|---|---|---|
| Saktësia dhe verifikimi | përdoruesit, ekipet, klientët | Rishikoni rezultatet, shtoni shtresa validimi, testoni rastet e skajit | IA mund të jetë e rrjedhshme dhe prapëseprapë shumë e gabuar - që është një kombinim i përafërt. Profili i NIST GenAI. |
| Mbrojtja e privatësisë | përdoruesit, klientët, stafi i brendshëm | Minimizoni përdorimin e të dhënave të ndjeshme, kërkesat e pastrimit, regjistrat e kontrollit | Pasi të dhënat private rrjedhin, pasta e dhëmbëve është jashtë tubit 😬 Tetë pyetjet e ICO-s për IA-në gjenerative OWASP 10 më të mirat për aplikacionet LLM |
| Paragjykim dhe drejtësi | grupe të nën-përfaqësuara, të gjithë përdoruesit në të vërtetë | Auditoni rezultatet, testoni të dhënat e ndryshme, akordoni masat mbrojtëse | Dëmi nuk është gjithmonë i zhurmshëm - ndonjëherë është sistematik dhe i qetë. Profilit NIST GenAI ICO mbi IA-në dhe mbrojtjen e të dhënave. |
| Siguria | sistemet e kompanisë, përdoruesit | Kufizoni aksesin në model, mbrohuni nga injeksioni i menjëhershëm, veprimet e rrezikshme sandbox | Një shfrytëzim i zgjuar mund të shkatërrojë besimin shpejt. 10 më të mirat e OWASP për aplikacionet LLM. NCSC mbi inteligjencën artificiale dhe sigurinë kibernetike. |
| Transparenca | përdoruesit fundorë, rregullatorët, ekipet mbështetëse | Etiketoni qartë sjelljen e inteligjencës artificiale, shpjegoni kufizimet, dokumentoni përdorimin e saj | Njerëzit meritojnë të dinë kur makina po ndihmon Parimeve të IA-së të OECD-së mbi shënimin dhe etiketimin e përmbajtjes së gjeneruar nga IA-ja |
| Përgjegjshmëria | pronarë produktesh, avokatë, ekipe zhvilluesish | Përcaktoni pronësinë, trajtimin e incidenteve, rrugët e përshkallëzimit | "IA e bëri" nuk është një përgjigje e rritur - Parimet e OECD-së për IA-në |
| Besueshmëria | të gjithë ata që prekin produktin | Monitoroni dështimet, vendosni pragje besimi, krijoni logjikë rezervë | Modelet devijojnë, dështojnë në mënyra të papritura dhe herë pas here kanë ndonjë episod të vogël dramatik. Udhëzimet e sigurta të AI-së të NIST AI RMF |
| Mirëqenia e përdoruesit | përdoruesit e cenueshëm, veçanërisht | Shmangni dizajnin manipulues, kufizoni rezultatet e dëmshme, rishikoni rastet e përdorimit me rrezik të lartë | Vetëm pse diçka mund të gjenerohet nuk do të thotë se duhet të jetë Parimet e IA-së të OECD-së , NIST AI RMF |
Një tavolinë paksa e pabarabartë, sigurisht, por kjo i përshtatet temës. Përgjegjësia e vërtetë është gjithashtu e pabarabartë.
Përgjegjësia fillon përpara nxitjes së parë - zgjedhja e rastit të duhur të përdorimit 🎯
Një nga përgjegjësitë më të mëdha që kanë zhvilluesit është të vendosin nëse duhet të përdoret fare IA gjenerative . NIST AI RMF
Kjo tingëllon e qartë, por anashkalohet gjatë gjithë kohës. Ekipet shohin një model, entuziazmohen dhe fillojnë ta imponojnë atë në rrjedha pune që do të trajtoheshin më mirë nga rregullat, kërkimi ose logjika e zakonshme e softuerit. Jo çdo problem ka nevojë për një model gjuhësor. Disa probleme kanë nevojë për një bazë të dhënash dhe një pasdite të qetë.
Para ndërtimit, zhvilluesit duhet të pyesin:
-
A është detyra me fund të hapur apo deterministe?
-
A mund të shkaktojë dëm rezultati i gabuar?
-
A kanë nevojë përdoruesit për kreativitet, parashikim, përmbledhje, automatizim - apo thjesht shpejtësi?
-
A do t’i besojnë njerëzit tepër shumë rezultateve? Profili i NIST GenAI
-
A mund t’i shqyrtojë realisht një njeri rezultatet? Parimet e OECD-së për inteligjencën artificiale
-
Çfarë ndodh kur modeli është i gabuar? Parimet e OECD-së për inteligjencën artificiale
Një zhvillues i përgjegjshëm nuk pyet vetëm: “A mund ta ndërtojmë këtë?” Ata pyesin: “A duhet të ndërtohet në këtë mënyrë?” NIST AI RMF
Kjo pyetje në vetvete parandalon shumë marrëzi të shndritshme.
Saktësia është përgjegjësi, jo një veçori shtesë ✅
Le të jemi të qartë - një nga kurthet më të mëdha në IA-në gjeneruese është ngatërrimi i elokuencës me të vërtetën. Modelet shpesh prodhojnë përgjigje që tingëllojnë të rafinuara, të strukturuara dhe thellësisht bindëse. Gjë që është e mrekullueshme, derisa përmbajtja të jetë e pakuptimtë e mbështjellë me besim. Profili i NIST GenAI.
Pra, përgjegjësia e Zhvilluesve që përdorin IA Gjenerative përfshin ndërtimin për verifikim.
Kjo do të thotë:
-
duke përdorur rikthimin ose tokëzimin kur është e mundur Profili NIST GenAI
-
ndarja e përmbajtjes së gjeneruar nga faktet e konfirmuara Parimet e OECD-së për inteligjencën artificiale
-
duke shtuar me kujdes pragjet e besimit NIST AI RMF
-
krijimi i rrjedhave të punës së rishikimit për rezultate me rrezik të lartë Parimet e IA-së të OECD-së
-
duke parandaluar modelin nga improvizimi në kontekste kritike Profili NIST GenAI
-
Kërkesat e testimit që përpiqen të prishin ose mashtrojnë sistemin OWASP Top 10 për Aplikacionet LLM
Kjo është shumë e rëndësishme në fusha të tilla si:
-
kujdes shëndetësor
-
financë
-
rrjedhat ligjore të punës
-
arsim
-
mbështetje për klientët
-
automatizimi i ndërmarrjeve
-
gjenerimi i kodit
Kodi i gjeneruar, për shembull, mund të duket i rregullt ndërsa fsheh të metat e sigurisë ose gabimet logjike. Një zhvillues që e kopjon atë verbërisht nuk po tregohet efikas - ata thjesht po ia japin rrezikun një tjetri në një format më të bukur. OWASP 10 më të mirat për aplikacionet LLM NCSC mbi inteligjencën artificiale dhe sigurinë kibernetike
Modeli mund të ndihmojë. Zhvilluesi ende e zotëron rezultatin. Parimet e IA-së të OECD-së
Privatësia dhe kujdesi për të dhënat janë të panegociueshme 🔐
Ja ku gjërat bëhen serioze shpejt. Sistemet gjeneruese të IA-së shpesh mbështeten në kërkesa, regjistra, dritare konteksti, shtresa memorieje, analiza dhe infrastrukturë të palëve të treta. Kjo krijon shumë mundësi që të dhënat e ndjeshme të rrjedhin, të vazhdojnë ose të ripërdoren në mënyra që përdoruesit nuk i kanë pritur kurrë. Tetë pyetjet e ICO-së për IA-në gjeneruese OWASP 10 më të mirat për aplikacionet LLM
Zhvilluesit kanë përgjegjësi të mbrojnë:
-
informacion personal
-
të dhënat financiare
-
detaje mjekësore
-
të dhënat e brendshme të kompanisë
-
sekretet tregtare
-
tokenët e vërtetimit
-
komunikimet me klientët
Praktikat e përgjegjshme përfshijnë:
-
minimizimi i të dhënave që hyjnë në tetë pyetjet e modelit ICO për AI gjenerues
-
maskimi ose heqja e identifikuesve të Profilit NIST GenAI
-
kufizimi i ruajtjes së regjistrave Udhëzimet e ICO-së mbi inteligjencën artificiale dhe mbrojtjen e të dhënave
-
kontrollimi se kush mund të hyjë në udhëzime dhe rezultate OWASP Top 10 për Aplikacionet LLM
-
duke rishikuar me kujdes cilësimet e shitësit, udhëzimet e NCSC për inteligjencën artificiale të sigurt
-
izolimi i rrjedhave të punës me rrezik të lartë Udhëzimet e NCSC-së për inteligjencën artificiale të sigurt
-
duke e bërë sjelljen e privatësisë të dukshme për përdoruesit tetë pyetjet e ICO-së për IA-në gjenerative
Kjo është një nga ato fusha ku "harruam të mendonim për këtë" nuk është një gabim i vogël. Është një dështim që thyen besimin.
Dhe besimi, pasi thyhet, përhapet si qelqi i rënë. Ndoshta jo metafora më e pastër, por e kuptoni.
Paragjykim, drejtësi dhe përfaqësim - përgjegjësitë më të qeta ⚖️
Paragjykimi në IA-në gjeneruese rrallë është një personazh negativ i animuar. Zakonisht është më i paqëndrueshëm se kaq. Një model mund të prodhojë përshkrime pune stereotipike, vendime moderimi të pabarabarta, rekomandime të pabarabarta ose supozime të ngushta kulturore pa shkaktuar alarme të dukshme. Profili i NIST GenAI
Kjo është arsyeja pse përgjegjësia e Zhvilluesve që përdorin IA Gjenerative përfshin punën për drejtësi aktive.
Zhvilluesit duhet:
-
pyetje testimi nga demografi dhe kontekste të ndryshme Profili NIST GenAI
-
rishikimi i rezultateve për stereotipet dhe përjashtimin Profili NIST GenAI
-
përfshijnë perspektiva të ndryshme gjatë vlerësimit NIST AI RMF
-
Kushtojini vëmendje modeleve të pabarabarta të dështimeve Profili NIST GenAI
-
shmangni supozimin se një stil gjuhësor ose normë kulturore i përshtatet të gjithëve. Udhëzimet e ICO-së mbi inteligjencën artificiale dhe mbrojtjen e të dhënave.
-
krijoni kanale raportimi për rezultate të dëmshme NIST AI RMF
Një sistem mund të duket se funksionon mirë në përgjithësi, ndërkohë që vazhdimisht u shërben disa përdoruesve më keq se të tjerëve. Kjo nuk është e pranueshme vetëm sepse performanca mesatare duket mirë në një panel kontrolli. Udhëzime ICO mbi inteligjencën artificiale dhe mbrojtjen e të dhënave Profili NIST GenAI
Dhe po, drejtësia është më e vështirë se një listë kontrolli e rregullt. Ka gjykim në të. Kontekst. Kompromise. Një masë shqetësimi gjithashtu. Por kjo nuk e heq përgjegjësinë - e konfirmon atë. Udhëzime të ICO-së mbi inteligjencën artificiale dhe mbrojtjen e të dhënave
Siguria tani është pjesërisht dizajn i shpejtë, pjesërisht disiplinë inxhinierike 🧱
Siguria gjeneruese e IA-së është një bishë e veçantë në vetvete. Siguria tradicionale e aplikacioneve ende ka rëndësi, sigurisht, por sistemet e IA-së shtojnë sipërfaqe sulmi të pazakonta: injektim i shpejtë, manipulim indirekt i shpejtë, përdorim i pasigurt i mjeteve, nxjerrje e të dhënave përmes kontekstit dhe keqpërdorim i modelit përmes rrjedhave të punës të automatizuara. OWASP 10 më të mirat për Aplikimet LLM NCSC mbi IA-në dhe sigurinë kibernetike
Zhvilluesit janë përgjegjës për sigurimin e të gjithë sistemit, jo vetëm të ndërfaqes. Udhëzimet e NCSC për inteligjencën artificiale të sigurt
Përgjegjësitë kryesore këtu përfshijnë:
-
dezinfektimi i të dhënave të pabesueshme OWASP Top 10 për Aplikacionet LLM
-
duke kufizuar se cilat mjete modeli mund të thërrasë OWASP Top 10 për Aplikacionet LLM
-
kufizimi i aksesit në skedarë dhe rrjet, udhëzimet e NCSC për inteligjencën artificiale të sigurt
-
duke ndarë qartë lejet, udhëzimet e NCSC-së për inteligjencën artificiale të sigurta
-
monitorimi i modeleve të abuzimit udhëzime të sigurta të NCSC për inteligjencën artificiale
-
veprime të kushtueshme ose të rrezikshme që kufizojnë normën OWASP 10 më të mirat për aplikimet LLM
-
testimi i kërkesave kundërshtare OWASP 10 më të mirat për aplikimet LLM
-
ndërtimi i rezervave të sigurta kur udhëzimet bien ndesh me Parimet e IA të OECD-së
Një e vërtetë e pakëndshme është se përdoruesit - dhe sulmuesit - absolutisht do të provojnë gjëra që zhvilluesit nuk i prisnin. Disa nga kurioziteti, disa nga keqdashja, disa sepse kanë klikuar gjënë e gabuar në orën 2 të mëngjesit. Kjo ndodh.
Siguria për IA-në gjeneruese është më pak si ndërtimi i një muri dhe më shumë si menaxhimi i një rojtari shumë të folur, i cili ndonjëherë mashtrohet nga fjalët e urta.
Transparenca dhe pëlqimi i përdoruesit kanë më shumë rëndësi sesa UX-i i shndritshëm 🗣️
Kur përdoruesit bashkëveprojnë me IA-në, ata duhet ta dinë këtë. Parimet e IA-së të OECD-së, Kodi i Praktikës mbi shënimin dhe etiketimin e përmbajtjes së gjeneruar nga IA-ja.
Jo në mënyrë të paqartë. Jo i fshehur në terma. Qartësisht.
Një pjesë thelbësore e përgjegjësisë së Zhvilluesve që përdorin IA Gjenerative është të sigurohen që përdoruesit të kuptojnë:
-
Kur përdoret inteligjenca artificiale Parimet e OECD-së për inteligjencën artificiale
-
Çfarë mund dhe nuk mund të bëjë IA- ja Parimet e OECD-së për IA-në
-
nëse rezultatet rishikohen nga njerëzit Parimet e OECD-së për inteligjencën artificiale
-
si përpunohen të dhënat e tyre Tetë pyetjet e ICO-së për IA-në gjeneruese
-
çfarë niveli besimi duhet të kenë ndaj NIST AI RMF?
-
Si të raportohen problemet ose të ankimohen vendimet Parimet e OECD-së për AI- në NIST AI RMF
Transparenca nuk ka të bëjë me frikësimin e përdoruesve. Ka të bëjë me respektimin e tyre.
Transparenca e mirë mund të përfshijë:
-
etiketa të tilla si Kodi i Praktikës i gjeneruar nga IA ose i ndihmuar nga IA mbi shënimin dhe etiketimin e përmbajtjes së gjeneruar nga IA
-
shpjegime në gjuhë të thjeshtë Parimet e OECD-së për inteligjencën artificiale
-
historitë e dukshme të redaktimeve aty ku është e rëndësishme
-
opsione për të çaktivizuar veçoritë e inteligjencës artificiale
-
përshkallëzimi te një njeri kur është e nevojshme Parimet e OECD-së për Inteligjencën Artificiale
-
paralajmërime koncize për detyra me rrezik të lartë, përmbledhje e Aktit të IA-së të Komisionit Evropian
Shumë ekipe produktesh shqetësohen se ndershmëria do ta bëjë veçorinë të duket më pak magjike. Ndoshta. Por siguria e rreme është më e keqe. Një ndërfaqe e qetë që fsheh rrezikun është në thelb një konfuzion i rafinuar.
Zhvilluesit mbeten përgjegjës - edhe kur modeli "vendos" 👀
Kjo pjesë ka shumë rëndësi. Përgjegjësia nuk mund t'i delegohet shitësit të modelit, kartës së modelit, shabllonit të kërkesës ose atmosferës misterioze të të mësuarit automatik. Parimet e IA-së të OECD-së, NIST, IA, RMF
Zhvilluesit janë ende përgjegjës. Parimet e IA-së të OECD-së
Kjo do të thotë që dikush në ekip duhet të zotërojë:
-
përzgjedhja e modelit NIST AI RMF
-
standardet e testimit Profili NIST GenAI
-
kriteret e lëshimit Profili NIST GenAI
-
Udhëzimet e NCSC për reagim ndaj incidenteve
-
trajtimi i ankesave të përdoruesve NIST AI RMF
-
procedurat e rikthimit Parimet e OECD-së për inteligjencën artificiale
-
ndjekja e ndryshimeve Parimet e OECD-së për inteligjencën artificiale
-
dokumentacion Parimet e OECD-së për inteligjencën artificiale
Duhet të ketë përgjigje të qarta për pyetje të tilla si:
-
Kush e miraton vendosjen? Profili i NIST GenAI
-
Kush shqyrton incidentet me rezultate të dëmshme? Profili i NIST GenAI
-
Kush mund ta çaktivizojë këtë veçori? Parimet e OECD-së për inteligjencën artificiale
-
Kush monitoron regresionet? NIST AI RMF
-
Kush komunikon me përdoruesit kur diçka prishet? Parimet e IA-së të OECD-së
Pa pronësi, përgjegjësia shndërrohet në mjegull. Të gjithë supozojnë se dikush tjetër po e trajton atë... dhe pastaj askush nuk po e bën.
Në të vërtetë, ky model është më i vjetër se inteligjenca artificiale. IA thjesht e bën atë më të rrezikshme.
Zhvilluesit e përgjegjshëm ndërtojnë për korrigjim, jo për përsosmëri 🔄
Ja ku qëndron kthesa e vogël në të gjithë këtë: zhvillimi i përgjegjshëm i inteligjencës artificiale nuk ka të bëjë me pretendimin se sistemi do të jetë perfekt. Ka të bëjë me supozimin se do të dështojë në një farë mënyre dhe me projektimin rreth këtij realiteti. NIST AI RMF
Kjo do të thotë ndërtimi i produkteve që janë:
-
Parimet e auditueshme
-
vendimet dhe rezultatet mund të rishikohen më vonë
-
-
Parimet e Ndërprera
-
Njerëzit mund të ndalojnë ose anashkalojnë sjelljen e keqe
-
-
Parimet e rikuperueshme
-
ka një alternativë kur rezultati i AI është i gabuar
-
-
udhëzime të monitorueshme NIST AI RMF
-
Ekipet mund të dallojnë modelet përpara se ato të shndërrohen në katastrofa
-
-
i përmirësuar i NIST GenAI
-
ekzistojnë sythe reagimesh dhe dikush i lexon ato
-
Ja si duket pjekuria. Jo demo të shkëlqyera. Jo kopje marketingu pa frymë. Sisteme të vërteta, me parmakë mbrojtës, shkrime, llogaridhënie dhe mjaftueshëm përulësi për të pranuar se makina nuk është magjistar. Udhëzime të sigurta të NCSC-së për inteligjencën artificiale, Parimet e OECD-së për inteligjencën artificiale.
Sepse nuk është. Është një mjet. Një mjet i fuqishëm, po. Por prapëseprapë një mjet.
Reflektim përmbyllës mbi përgjegjësinë e Zhvilluesve që përdorin IA Gjenerative 🌍
Pra, cila është përgjegjësia e zhvilluesve që përdorin IA Gjenerative ?
Është të ndërtosh me kujdes. Të vësh në pikëpyetje se ku ndihmon sistemi dhe ku dëmton. Të mbrosh privatësinë. Të testosh për paragjykime. Të verifikosh rezultatet. Të sigurosh rrjedhën e punës. Të jesh transparent me përdoruesit. Të mbash njerëzit në kontroll domethënës. Të qëndrosh përgjegjës kur gjërat shkojnë keq. NIST AI RMF OECD Parimet e AI
Kjo mund të tingëllojë e rëndë - dhe është. Por është gjithashtu ajo që e dallon zhvillimin e menduar mirë nga automatizimi i pamatur.
Zhvilluesit më të mirë që përdorin IA gjeneruese nuk janë ata që e bëjnë modelin të kryejë më shumë truke. Ata janë ata që i kuptojnë pasojat e këtyre trukeve dhe projektojnë në përputhje me rrethanat. Ata e dinë që shpejtësia ka rëndësi, por besimi është produkti i vërtetë. Çuditërisht, kjo ide e vjetër ende qëndron. NIST AI RMF
Në fund të fundit, përgjegjësia nuk është pengesë për inovacionin. Është ajo që e pengon inovacionin të shndërrohet në një përhapje të kushtueshme dhe të trazuar me një ndërfaqe të lëmuar dhe një problem besimi 😬✨
Dhe ndoshta kjo është versioni më i thjeshtë i saj.
Ndërtoni me guxim, sigurisht - por ndërtoni sikur njerëzit mund të preken, sepse ata po. Parimet e IA të OECD-së
Pyetje të shpeshta
Cila është përgjegjësia e zhvilluesve që përdorin IA gjeneruese në praktikë?
Përgjegjësia e zhvilluesve që përdorin IA gjeneruese shtrihet përtej dërgimit të shpejtë të veçorive. Ajo përfshin zgjedhjen e rastit të duhur të përdorimit, testimin e rezultateve, mbrojtjen e privatësisë, zvogëlimin e sjelljes së dëmshme dhe bërjen e sistemit të kuptueshëm për përdoruesit. Në praktikë, zhvilluesit mbeten përgjegjës për mënyrën se si mjeti është projektuar, monitoruar, korrigjuar dhe qeverisur kur ai dështon.
Pse IA gjenerative ka nevojë për më shumë përgjegjësi zhvilluesi sesa softueri normal?
Gabimet tradicionale janë shpesh të dukshme, por dështimet gjeneruese të IA-së mund të duken të rafinuara, ndërkohë që janë ende të gabuara, të anshme ose të rrezikshme. Kjo i bën problemet më të vështira për t'u dalluar dhe më të lehta për përdoruesit që t'u besojnë gabimisht. Zhvilluesit po punojnë me sisteme probabilistike, kështu që përgjegjësia përfshin trajtimin e pasigurisë, kufizimin e dëmit dhe përgatitjen për rezultate të paparashikueshme para lançimit.
Si e dinë zhvilluesit kur nuk duhet të përdoret IA gjeneruese?
Një pikënisje e zakonshme është të pyesësh nëse detyra është e hapur apo trajtohet më mirë nga rregullat, kërkimi ose logjika standarde e softuerit. Zhvilluesit duhet gjithashtu të marrin në konsideratë se sa dëm mund të shkaktojë një përgjigje e gabuar dhe nëse një njeri mund t'i shqyrtojë realisht rezultatet. Përdorimi i përgjegjshëm ndonjëherë do të thotë të vendosësh të mos përdorësh fare IA gjeneruese.
Si mund t’i zvogëlojnë zhvilluesit halucinacionet dhe përgjigjet e gabuara në sistemet gjeneruese të IA-së?
Saktësia duhet të projektohet, jo të supozohet. Në shumë kanale, kjo do të thotë vendosja e rezultateve në burime të besueshme, ndarja e tekstit të gjeneruar nga faktet e verifikuara dhe përdorimi i rrjedhave të punës së rishikimit për detyra me rrezik më të lartë. Zhvilluesit duhet gjithashtu të testojnë kërkesat që synojnë të ngatërrojnë ose mashtrojnë sistemin, veçanërisht në fusha si kodi, mbështetja, financat, arsimi dhe kujdesi shëndetësor.
Cila është përgjegjësia e zhvilluesve që përdorin IA gjeneruese për privatësinë dhe të dhënat e ndjeshme?
Përgjegjësia e zhvilluesve që përdorin IA gjeneruese përfshin minimizimin e të dhënave që hyjnë në model dhe trajtimin e kërkesave, regjistrave dhe rezultateve si të ndjeshme. Zhvilluesit duhet të heqin identifikuesit aty ku është e mundur, të kufizojnë ruajtjen e tyre, të kontrollojnë aksesin dhe të rishikojnë me kujdes cilësimet e shitësit. Përdoruesit duhet gjithashtu të jenë në gjendje të kuptojnë se si trajtohen të dhënat e tyre, në vend që t'i zbulojnë rreziqet më vonë.
Si duhet t'i trajtojnë zhvilluesit paragjykimet dhe drejtësinë në rezultatet gjeneruese të IA-së?
Puna me paragjykimet kërkon vlerësim aktiv, jo supozime. Një qasje praktike është të testohen sugjerimet në demografi, gjuhë dhe kontekste të ndryshme, pastaj të shqyrtohen rezultatet për stereotipe, përjashtime ose modele të pabarabarta dështimi. Zhvilluesit duhet gjithashtu të krijojnë mënyra që përdoruesit ose ekipet të raportojnë sjellje të dëmshme, sepse një sistem mund të duket i fortë në përgjithësi, ndërsa ende dështon grupe të caktuara vazhdimisht.
Për çfarë rreziqesh sigurie duhet të marrin në konsideratë zhvilluesit me IA-në gjenerative?
IA gjeneruese prezanton sipërfaqe të reja sulmi, duke përfshirë injektimin e shpejtë, përdorimin e pasigurt të mjeteve, rrjedhjen e të dhënave përmes kontekstit dhe abuzimin me veprimet e automatizuara. Zhvilluesit duhet të dezinfektojnë të dhënat e pabesueshme, të kufizojnë lejet e mjeteve, të kufizojnë aksesin në skedarë dhe rrjet dhe të monitorojnë për modele të keqpërdorimit. Siguria nuk ka të bëjë vetëm me ndërfaqen; ajo vlen për të gjithë rrjedhën e punës rreth modelit.
Pse është e rëndësishme transparenca kur ndërtohet me IA gjeneruese?
Përdoruesit duhet ta dinë qartë kur është e përfshirë IA, çfarë mund të bëjë dhe ku janë kufijtë e saj. Një transparencë e mirë mund të përfshijë etiketa të tilla si të gjeneruara nga IA ose të ndihmuara nga IA, shpjegime të thjeshta dhe rrugë të qarta për mbështetje njerëzore. Ky lloj sinqeriteti nuk e dobëson produktin; i ndihmon përdoruesit të kalibrojnë besimin dhe të marrin vendime më të mira.
Kush është përgjegjës kur një veçori gjeneruese e IA-së shkakton dëm ose bën diçka të gabuar?
Zhvilluesit dhe ekipet e produkteve ende e kanë në dorë rezultatin, edhe kur modeli prodhon përgjigjen. Kjo do të thotë se duhet të ketë përgjegjësi të qartë për miratimin e vendosjes, trajtimin e incidenteve, rikthimin prapa, monitorimin dhe komunikimin me përdoruesit. "Modeli vendosi" nuk mjafton, sepse llogaridhënia duhet të mbetet tek njerëzit që e projektuan dhe e lançuan sistemin.
Si duket zhvillimi i përgjegjshëm i inteligjencës artificiale gjenerative pas lançimit?
Zhvillimi i përgjegjshëm vazhdon pas publikimit përmes monitorimit, reagimeve, rishikimit dhe korrigjimit. Sistemet e forta janë të auditueshme, të ndërprera, të rikuperueshme dhe të projektuara me shtigje rezervë kur inteligjenca artificiale dështon. Qëllimi nuk është përsosmëria; është ndërtimi i diçkaje që mund të ekzaminohet, përmirësohet dhe përshtatet në mënyrë të sigurt ndërsa shfaqen probleme të botës reale.
Referencat
-
Instituti Kombëtar i Standardeve dhe Teknologjisë (NIST) - Profili i NIST GenAI - nvlpubs.nist.gov
-
OWASP - 10 më të mirat e OWASP për Aplikimet LLM - owasp.org
-
Zyra e Komisionerit të Informacionit (ICO) - Tetë pyetjet e ICO-së për IA-në gjeneruese - ico.org.uk