Izjava o avtorstvu, metodologiji dela in uporabi umetne inteligence
(avtorsko- in pravno-varstveni disclaimer)
Avtor prispevka Franc Derganc izjavlja, da je so prispevki s podpisom FRANC DERGANC samostojno avtorsko delo v smislu veljavne zakonodaje s področja avtorskega prava. Avtorstvo v celoti pripada avtorju, ki je edini nosilec moralnih in materialnih avtorskih pravic na besedilu, razen kjer je izrecno navedeno drugače.
Vse vsebinske zasnove, ideje, argumenti, pravna stališča, vrednostne presoje, sklepanja ter predlagani koncepti v članku so rezultat avtorjeve lastne intelektualne ustvarjalnosti in strokovne presoje. Avtor izrecno prevzema polno odgovornost za pravilnost, pomen in posledice zapisanega.
Pri pripravi članka je avtor uporabljal tudi orodja umetne inteligence izključno kot pomožna tehnično-analitična orodja, in sicer za:
1. podporo pri strukturiranju besedila,
2. jezikovni koherentnosti,
3. preverjanju logične konsistence argumentacije ter
4. povzemanje že obstoječih splošno znanih pravnih konceptov in sodne prakse.
Umetna inteligenca ni bila uporabljena kot avtor, soavtor ali nosilec pravic, niti ni samostojno ustvarjala zaščitenih avtorskih vsebin.
V primeru povzetkov (oz. analize) sodb, ki jo izvede AI, avtor preveri ali je povzetek AI-ja ustrezna. Pri pripravi povzetkov sodne prakse je avtor uporabljal tudi orodja umetne inteligence kot pomožno analitično orodje; vse predstavljene interpretacije so avtorjeve in zanje prevzema polno odgovornost.
V delih članka, kjer so povzeta sorodna stališča več avtorjev, gre za avtorjevo lastno sintezno predstavitev obstoječe doktrine. Pri raziskovalnem delu je avtor uporabil tudi orodja umetne inteligence kot pomožno analitično orodje; končna interpretacija, izbira virov in odgovornost za predstavljena stališča v celoti pripadajo avtorju.
Končna izbira vsebine, oblikovanje pravnih stališč, vključitev ali izključitev posameznih predlogov ter končna redakcija besedila so izključno v domeni avtorja. Vsi predlogi, nastali ob uporabi umetne inteligence, so bili podvrženi kritični avtorski presoji, preverjeni glede skladnosti z veljavnim pravom in po potrebi zavrnjeni ali bistveno preoblikovani.
Uporaba umetne inteligence v tem kontekstu predstavlja orodje, primerljivo z uporabo pravnih podatkovnih baz, urejevalnikov besedil ali lektorskih pripomočkov, in ne vpliva na status avtorskega dela niti na nosilstvo avtorskih pravic. Avtor s tem ne prenaša, ne omejuje in ne deli svojih avtorskih pravic, niti jih ne pripisuje tretjim osebam ali tehnološkim sistemom.
Avtor dodatno pojasnjuje, da so deli besedila, v katerih so predstavljeni novi koncepti, interpretativni okviri ali sistemski predlogi, izrecno mišljeni kot avtorski in izvirni intelektualni prispevki, razviti na podlagi avtorjevih raziskav in strokovnega dela. Njihova morebitna podobnost z drugimi deli je naključna ali posledica splošno dostopnih pravnih izhodišč, ne pa reproduciranja zaščitenih avtorsko-pravno varovanih vsebin. Avtor izvede raziskavo originalnosti pristopa oz. ideje v trnutku objave članka.
Ta izjava ima namen zagotoviti preglednost do bralcev in uredništva, ne pa omejevati zakonitih pravic do citiranja, kritične obravnave ali strokovne razprave v skladu z veljavno zakonodajo o avtorski in sorodnih pravicah.
Opomba za uredništvo
Besedilo je pripravljeno skladno z dobrimi praksami razkrivanja uporabe umetne inteligence v strokovnih in znanstvenih publikacijah ter ob upoštevanju temeljnega načela: umetna inteligenca je orodje, avtor pa je človek.
O izvirnih konceptih, razvitih v avtorskem pristopu (na dan 2.12.2025)
Avtor v svojih prispevkih ne izhaja iz predpostavke, da je obstoječi pravni okvir nujno neustrezen, temveč iz opažanja, da na določenih področjih ne deluje zadovoljivo v praksi, zlasti z vidika dejanskega položaja posameznika. Na tej podlagi – in po lastnih raziskavah, vključno s preverjanjem obstoječe literature, sodne prakse ter primerjalnih rešitev, tudi ob podpori več različnih orodij umetne inteligence – je avtor razvil več novih konceptualnih pristopov, ki jih v takšni obliki ni zaznal kot sistematično razvite v slovenskem pravu niti v ustaljeni praksi nadzornih institucij.
Primeroma:
Prvi tak koncept je razumevanje človekovih pravic kot upravljanih tveganj, ne zgolj kot individualnih pravic, ki se uveljavljajo šele ob kršitvi. Po tem pristopu bi morala javna oblast sistemsko prepoznavati, evidentirati in zniževati tveganja za kršitve človekovih pravic, podobno kot upravlja finančna, varnostna ali operativna tveganja. Dostopnost za osebe z invalidnostmi je v tem okviru zgolj eden najjasnejših primerov takšnega tveganja, ki je znano vnaprej in zato terja preventivno ravnanje.
Drugi izvirni prispevek je koncept pravice do pričakovane upravne skrbnosti. Avtor zagovarja stališče, da se pravica do dobre uprave ne izčrpa v procesnih jamstvih, temveč vključuje pravico posameznika, da lahko razumno pričakuje, da bo organ že v fazi načrtovanja in odločanja upošteval učinke svojih ravnanj na človekove pravice. Opustitev takšne skrbnosti ni nevtralna upravna izbira, temveč samostojna oblika kršitve standarda dobrega upravljanja.
Tretji koncept je horizontalna dolžnost vzpostavitve registra tveganj za človekove pravice za vse nosilce javnih pooblastil. Gre za idejo, da varstvo človekovih pravic ne more biti prepuščeno zgolj specialnim zakonodajam ali posamičnim nadzornim organom, temveč mora postati del notranjega upravljanja vsake institucije. Register tveganj v tem smislu ni statističen dokument, temveč orodje pravne odgovornosti, ki omogoča preverjanje, ali organ tveganja prepoznava, meri in dejansko zmanjšuje.
Četrti izvirni element je povezava med merili uspešnosti (KPI) in varstvom človekovih pravic. Avtor razvija stališče, da brez merljivih kazalnikov ni mogoče resno govoriti o učinkovitosti varstva pravic. Če se tveganja ponavljajo, KPI pa ostajajo nespremenjeni ali negativni, to po avtorjevem prepričanju ni več zgolj upravni neuspeh, temveč kazalnik sistemske kršitve pozitivnih dolžnosti države.
Peti koncept se nanaša na razširjeno vlogo Varuha človekovih pravic, ki presega obravnavo posamičnih pobud. Avtor zagovarja pristop, po katerem bi Varuh imel jasno podlago za vpogled v upravljanje tveganj pri organih, spremljanje sprejetih ukrepov in presojo, ali se tveganja dolgoročno znižujejo ali stagnirajo. S tem bi se nadzor človekovih pravic premaknil od reaktivnega modela k preventivnemu.
Nazadnje avtor razvija tudi merilo pravičnosti kot merilo dejanskega položaja človeka, ne zgolj kot skladnost ravnanja z normo. Po tem razumevanju je sistem pravičen le tedaj, kadar je razmerje med močjo oblasti in položajem posameznika uravnoteženo tako, da človek svoje pravice lahko dejansko živi. Dostopnost, pravočasnost postopkov in socialna varnost tako niso izvedbene podrobnosti, temveč merila pravičnosti same.
Avtor izrecno poudarja, da predstavljeni koncepti niso mišljeni kot dokončne rešitve ali dogmatične trditve, temveč kot izvirni intelektualni inputi, namenjeni strokovni razpravi. Zanje prevzema polno odgovornost in jih zavestno izpostavlja kot lastne, nove prispevke k razumevanju razmerja med pravom, upravo in človekovimi pravicami.
O drugih izvirnih konceptih - primer "AI boter" (na dan 2.12.2025)
Ob že navedenih konceptih avtor kot izviren prispevek predlaga tudi koncept AI-Boterja kot podpornega orodja za varovanje človekovih pravic otrok in staršev v razmerah hitrega tehnološkega razvoja. Izhodišče tega pristopa je realna ugotovitev, da velik del staršev – ne zaradi malomarnosti, temveč zaradi objektivnih omejitev časa, znanja in dostopa do informacij – ne more več kontinuirano slediti razvoju digitalnih tehnologij, algoritmičnih sistemov in umetne inteligence, s katerimi se vsakodnevno srečujejo njihovi otroci.
Avtor izhaja iz stališča, da v takšnih okoliščinah ni pravično niti razumno nalagati celotnega bremena digitalne zaščite otrok posameznim staršem. Če država dopušča ali celo spodbuja uporabo naprednih digitalnih sistemov v izobraževanju, komunikaciji in prostočasnih dejavnostih otrok, ima hkrati pozitivno dolžnost, da staršem zagotovi podporna orodja za razumevanje tveganj in za pravočasno ukrepanje.
Koncept AI-Boterja je zamišljen kot neodvisno, javno-interesno podporno orodje, ki staršem ne zapoveduje ravnanj, temveč jim pomaga razumeti digitalno okolje, v katerem se njihovi otroci gibljejo. Njegova funkcija ni nadzor otrok, temveč informiranje, preventivno opozarjanje in razlaga tveganj v razumljivem jeziku, prilagojenem ne-tehničnim uporabnikom.
Z vidika prava gre za izvirno razširitev koncepta pozitivnih dolžnosti države: ne zgolj varovati otroka neposredno, temveč opolnomočiti starše, da lahko svojo vzgojno in varovalno vlogo sploh izvajajo v okoliščinah tehnološke asimetrije moči. AI-Boter v tem okviru ne nadomešča staršev, učiteljev ali socialnih služb, temveč deluje kot most med hitrim razvojem tehnologij in omejenimi človeškimi zmožnostmi spremljanja tega razvoja.
Pomembno je poudariti, da avtor AI-Boterja ne razume kot komercialnega ali zasebnega produkta, temveč kot koncept, ki bi moral biti umeščen v okvir dobrega upravljanja, javnega nadzora in jasnih etičnih omejitev. Takšno orodje ne bi smelo zbirati ali obdelovati občutljivih podatkov otrok, temveč delovati na ravni splošnih informacij, pojasnil in opozoril na sistemska tveganja, kot so algoritmična manipulacija, zasvojenost z digitalnimi vsebinami ali izpostavljenost neprimernim vsebinam.
V povezavi z drugimi razvitimi koncepti avtor AI-Boterja umešča tudi v logiko upravljanja tveganj za človekove pravice. "Digitalna tveganja otrok in družin" bi bila kot posebna kategorija evidentirana med upravnimi tveganji, država pa bi z uporabo takšnega orodja izpolnjevala svojo dolžnost preventive, ne zgolj reaktivnega ukrepanja po nastanku škode.
Avtor izrecno poudarja, da gre za izviren idejni predlog, namenjen strokovni razpravi, in ne za dokončno normativno rešitev. Njegov namen je opozoriti, da brez sistemske podpore staršem postaja razkorak med pravnimi pričakovanji in dejanskimi zmožnostmi družin vse večji, kar pa dolgoročno ogroža učinkovito varstvo otrok in temeljnih pravic v digitalnem okolju.