Kulayisha

Slzii.com Kufuna

https://oeiac.cat

OEIAC - Observatori d’Ètica en Intel·ligència Artificial de Catalunya
L’Observatori d’Ètica en Intel·ligència Artificial de Catalunya té com a objectiu principal estudiar les conseqüències ètiques, socials i legals i els riscos i oportunitats de la implantació de la Intel·ligència Artificial.
OEIAC - Observatori d’Ètica en Intel·ligència Artificial de Catalunya Vés al contingut Verificació Catàlegs Recomanacions Informació Accedir Model PIO Verificació 01 Preavaluació 02 Model PIO 03 Models sectorials Catàlegs Legal Exemples Recomanacions Contractes Avaluacions Informació Qui som El Model PIO Justificacions Recursos La AI Act Model d’autoavaluació PIO Iniciar Formulari Transparència Justícia Seguretat Responsabilitat Privacitat Autonomia Sostenibilitat Model d’autoavaluació PIO Presentem el model d'autoavaluació PIO (Principis, Indicadors i Observables) per avançar en l’avaluació ètica de dades i sistemes d'intel·ligència artificial a través d'un formulari de verificació o checklist. Model d’autoavaluació PIO Autoavaluació per al compliment de la normativa de dades i sistemes d’IA Iniciar preavaluació Promou el compliment de la normativa sobre riscos de la intel·ligència artificial mitjançant una verificació exhaustiva. Identifica accions adequades o inadequades i sensibilitza la quàdruple hèlix sobre l’ús ètic i responsable de dades i sistemes d’intel·ligència artificial. Tot això, alineat amb els principis ètics i estàndards internacionals en el disseny, implementació i ús d’aquests sistemes. Objectius Garantim el compliment dels més alts estàndards de responsabilitat, seguretat i respecte pels drets humans. Una eina d’avaluació que afavoreix el compliment de la normativa i regulació actual sobre riscos associats a la intel·ligència artificial a través d’un procés de verificació exhaustiu. Una eina que permet identificar accions adequades o inadequades i sensibilitzar a la quàdruple hèlix a través dels usos ètics i responsables de les dades i sistemes d’intel·ligència artificial. Una eina que s’alinea amb la creixent adopció internacional de principis ètics i d’estàndards d’alt nivell en el disseny, implementació i ús de dades i sistemes d’intel·ligència artificial. Situar-nos Preguntes inicials Sabeu quin és el problema que esteu intentant resoldre amb l’ús d’un sistema d’IA? Us heu plantejat si és necessari utilitzar un sistema d’IA per resoldre aquest problema?  Heu considerat els beneficis que aportarà l’ús d’un sistema d’IA i si aquests superen els riscos que planteja? Sabeu explicar de quina manera el sistema d’IA resoldrà el problema o objectiu concret d’una manera comprensible? Heu establert mecanismes per evitar que el sistema d’IA no s’exploti de manera maliciosa? Sou conscients del vostre grau de responsabilitat respecte els possibles perjudicis d’utilitzar un sistema d’IA? Utilitzeu dades d’una forma que es garanteixen drets fonamentals com el dret a la privadesa i els drets d’autor? Sabeu que un sistema d’IA ha d’augmentar capacitats però, en cap cas, limitar l’autonomia de les persones i la seva presa de decisions? Teniu en compte que la sobreestimació de les capacitats d’un sistema d’IA contribueix a la desinformació tècnica i comercial? Coneixeu l’impacte ambiental com la petjada de carboni associada a l’ús del sistema d’IA? Catàlegs A-B Exemples Exemples reals i hipotètics a les preguntes del Model PIO. 100+ Legal i recomanacions Normes jurídiques en les que s’han inspirat les preguntes del Model PIO. Recomanacions Oferim contingut recomanat per a la redacció de clàusules de contractes relatius a sistemes d’IA. Transparència Justícia Seguretat Responsabilitat Privacitat Autonomia Sostenibilitat Totes les recomanacions T'oferim Model PIO El Model PIO és una nova eina d’avaluació sobre els usos ètics i legals que està harmonitzada amb els requisits legislatius i els estàndards i recomanacions ètiques actuals. Avaluem Proporcionem una eina per la pròpia autoavaluació organitzativa en l’ús ètic de dades i sistemes d’IA. Acompanyem T’oferim la possibilitat d’un acompanyament del procés d’avaluació per realitzar una verificació efectiva de la normativa legal i de les recomanacions ètiques. Aconsellem T’oferim la possibilitat de rebre feedback personalitzat després de realitzar el procés d’autoavalució. Formem T'oferim diverses modalitats formatives de caràcter general o especialitzat segons les teves necessitats i inquietuds. Contacta amb l'OEIAC! Preguntes FAQs Quina és la relació de la AI Act amb els drets humans? L’arribada de la IA pot entrar en conflicte amb els drets humans i llur tutela en diversos textos normatius i és per això que fem èmfasi en que l’ús ha de ser ètic i d’acord als drets fonamentals de totes les persones. Els sistemes d’IA no poden estar exempts de respectar els consensos socials assolits al voltant dels drets mínims garantits per a tothom, sinó al contrari, s’ha de promoure que l’aplicació de la IA sigui adequada i d’acord aquets. I no només en la seva creació, sinó també durant totes les seves fases i ús. Per això diem que la relació entre la AI Act i els drets humans és estreta i de cooperació perquè són la base d’un bon funcionament dels sistemes d’IA. Quan entra en vigor la AI Act? La AI Act va entrar en vigor el passat dia 1 d'agost de 2024, vint dies després de la seva publicació al Diari Oficial de la UE el 12 de juliol. Això no obstant, no totes les obligacions contingudes a la norma són ja exigibles, sinó que l'article 113 de la AI Act preveu diferents terminis per algunes seccions, amb l'objectiu de brindar als subjectes de temps per adaptar-se als requisits previstos. És per aquest motiu que les normes relatives a les pràctiques prohibides no seran aplicables fins al 2 de febrer del 2025. Les disposicions relacionades amb els sistemes d'IA generativa, de categorització biomètrica, de reconeixement d'emocions, i models de propòsit general seran exigibles a partir del 2 d'agost del 2025. Pel que fa a les normes aplicables als sistemes d'alt risc, seran exigibles a partir del 2 d'agost del 2026 per als sistemes inclosos en l'Annex III de la AI Act (sistemes relatius a àmbits d'especial incidència sobre els drets fonamentals, com per exemple la salut), i a partir del 2 d'agost del 2027 respecte als sistemes enumerats a l'Annex I (sistemes ja coberts per la regulació sobre productes de la UE). És aconsellable complir amb la AI Act encara que el meu sistema no estigui contemplat? Si, és aconsellable que, fins i tot si el vostre sistema no estigui contemplat de manera expressa a la AI Act, heu d'adoptar mesures per tal de complir amb els estàndards que en ella mateixa es contemplen. Cal tenir en compte que la normativa contigua a la AI Act també funciona com una adequació als paràmetres ètics i que, per tant, permeten avançar en l’anomenada IA ètica i responsable. Així mateix, cal notar que la categorització de sistemes que contempla la versió actual de la AI Act no és hermètica, sinó que la mateixa llei atribueix a la Comissió la potestat per incloure més tipus de sistemes a les categories establertes. En conseqüència, que el vostre sistema actualment no estigui afectat per la legislació no implica que no pugui estar-ho en un futur. Així doncs, començar a treballar en el compliment dels requisits de la AI Act us pot aportar seguretat de cara a qualsevol possible canvi en la legislació. Quines són les categories de risc definides segons la AI Act? La AI Act classifica els sistemes d'IA en 4 categories de risc: 1) sistemes de risc inacceptable, on se situen els sistemes destinats als usos prohibits per l'article 5 de la AI Act; 2) sistemes d'alt risc, enumerats a l'article 6 de la AI Act, que són considerats com a tal perquè es considera que el seu ús pot suposar un perill per als drets i llibertats fonamentals, la salut i seguretat de les persones, el medi ambient i/o la democràcia i l'estat de dret; 3) sistemes de risc limitat, categoria en la qual s'encabeixen diversos tipus de sistemes amb relació als quals es preveuen determinades obligacions de transparència; i 4) sistemes de risc mínim, els quals no són considerats potencialment perillosos, motiu pel qual la normativa pràcticament no els contempla. Quines són les possibles sancions si no es compleix la AI Act? Les possibles sancions davant l'incompliment de la AI Act es contemplen en el capítol XII de la regulació. La infracció de les normes relatives als usos prohibits establertes a l'article 5 de la legislació pot comportar una multa administrativa de fins a 35.000.000 euros, o el 7% de la facturació global si aquesta darrera xifra és més elevada. Pel que fa a l'incompliment dels requisits establerts per als sistemes d'alt risc o les obligacions de transparència en relació amb els sistemes d'IA generativa, categorització biomètrica, reconeixement d'emocions a aquests pot comportar una multa de fins a 15.000.000 euros, o el 3% de la facturació, de nou, depenent de si aquesta segona xifra és més elevada que la primera. Així mateix, la AI Act contempla la possibilitat d'imposar multes de fins a un 3% de la facturació global, o 15.000.000 euros, segons quina sigui la xifra més alta, als proveïdors de models de propòsit general que, de manera intencional o negligent, infringeixin la regulació. Quina normativa regula la IA? La AI Act és la normativa europea que introdueix un marc regulador i legal comú sobre intel·ligència artificial per a tots els estats membres de la UE però, no n’és la única. Així doncs, destaquem que en els següents textos legals també consta regulació en matèria de la IA: la AI Liability Act; la Directiva sobre els requisits d'accessibilitat dels productes i serveis; la Directiva sobre l'accessibilitat dels llocs web i aplicacions per a dispositius mòbils del sector públic; la Directiva de protecció de dades amb fins de prevenció, investigació, detecció, enjudiciament o execució d'infraccions penals; la Directiva dels drets d’autor i drets afins en la societat de la informació; la Directiva sobre els drets d'autor i drets afins en el mercat únic digital; la Llei Europea sobre la Governança de dades; el Reglament general de protecció de dades; i el Reglament de protecció de dades tractades per institucions, òrgans i organismes de la Unió. Tot això sense incloure les recomanacions ètiques i les legals, pel que us encoratgem a utilitzar el Model PIO per anar a l’avançada i actuar de manera coherent amb els requisits legals i estàndards ètics esperats. Més informació Amb el suport de: OEIAC és una peça clau de l’Estratègia, catalonia.ai juntament amb: Contacte Edifici Econòmiques C/ de la Universitat de Girona 10 Campus Montilivi 17003 Girona suport.oeiac@udg.edu Idioma Català Español English Xarxes Socials X © OEIAC 2024 Política de privadesa Protecció de dades Utilitzem galetes per a oferir-te la millor experiència en la nostra web. Podeu esbrinar més sobre quines galetes estem utilitzant o desactivar-les a la configuració. Accepta Rebutja Configuració Tanca els paràmetres de les galetes RGPD Política de cookies Galetes estrictament necessàries Política de cookies L'OEIAC no utilitza cookies per recollir informació de les persones usuàries. Únicament s'utilitzen cookies pròpies, de sessió, amb finalitat tècnica (aquelles que permeten a la persona usuària la navegació a través del lloc web i la utilització de les diferents opcions i serveis que hi existeixen). El portal del qual és titular l'OEIAC conté enllaços a llocs web de tercers, les polítiques de privadesa dels quals són alienes a la de l'OEIAC. En accedir a aquests llocs web vostè pot decidir si accepta les seves polítiques de privadesa i de cookies. Amb caràcter general, si navega per internet vostè pot acceptar o rebutjar les galetes de tercers des de les opcions de configuració del seu navegador. Galetes estrictament necessàries Les galetes estrictament necessàries han d'activar-se sempre perquè puguem desar les preferències per a la configuració de galetes. Activa o desactiva les galetes Activa tot Desa els canvis
ca
ca
1727596201
https://oeiac.cat

Hlela isayithi yakho?

Wentani?

0.0050060749053955


I-Webdirectory
I-Webdirectory

I-Webdirectory
L’Observatori d’Ètica en Intel·ligència Artificial de Catalunya té com a objectiu principal estudiar les conseqüències ètiques, socials i le...
I-Webdirectory