Finanziamo strutture per affitti brevi

Gestiamo strutture per affitto breve

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#adessonews
Aste immobili
bed & breakfast
Immobili
Regolamento AI in Europa: contenuto e risvolti pratici #adessonews

Effettua una nuova ricerca

 

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#adessonews
Aste immobili
bed & breakfast
Immobili


A ridosso delle elezioni europee 2024, il Parlamento europeo e il Consiglio uscenti hanno lasciato in eredità un regolamento (Reg. UE 2024/1689) che, nel dettare regole armonizzate sull’AI (intelligenza artificiale):

  • segna una svolta epocale nella gestione e regolamentazione dell’AI all’interno dell’Unione Europea;
  • cerca di bilanciare il potenziale innovativo della tecnologia con la necessità di proteggere i diritti fondamentali e la sicurezza dei cittadini, che si trovano a dover affrontare decisioni sempre più complesse.

L’alfabetizzazione in materia di intelligenza artificiale
L’AI ad alto rischio nel Regolamento europeo
I modelli di IA per finalità generali
Le misure a sostegno dell’Innovazione
Il Regolamento e l’AI nel settore dei trasporti

Finanziamo strutture per affitti brevi

Gestiamo strutture per affitto breve

L’alfabetizzazione in materia di intelligenza artificiale

Un aspetto cruciale introdotto dal regolamento è quello di alfabetizzazione in materia di AI, quell’insieme di competenze, conoscenze e comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare.

Il deployer è una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale.

L’AI ad alto rischio nel Regolamento europeo

Il Regolamento introduce una classificazione dei sistemi di AI in base ai livelli di rischio associati. I sistemi a più alto rischio – fra i quali i sistemi utilizzati in settori come la salute, l’istruzione, la gestione delle infrastrutture critiche e l’applicazione della legge – sono soggetti a normative stringenti poiché possono influire in modo significativo sulla vita delle persone.

Un sistema di AI è considerato ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:

  1. il sistema di AI è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di AI è esso stesso un prodotto;
  2. il prodotto, il cui componente di sicurezza è il sistema di AI, o il sistema di AI stesso in quanto prodotto, è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto.

I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da:

Finanziamenti personali e aziendali

Prestiti immediati

  • conseguire un adeguato livello di accuratezza, robustezza e cybersicurezza e operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita;
  • poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso;
  • garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l’output del sistema e utilizzarlo adeguatamente;
  • assoggettare i sistemi di AI ad alto rischio che utilizzano tecniche che prevedono l’uso di dati per l’addestramento di modelli di AI a specifici set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità stabiliti dal regolamento, ogniqualvolta siano utilizzati tali set di dati.

I modelli di IA per finalità generali

Oltre ai sistemi di AI ad alto rischio, il regolamento introduce una nuova categoria di modelli di intelligenza artificiali: quelli per “finalità generali”.

Un “modello di AI per finalità generali con rischio sistemico” è definito tale se soddisfa una delle condizioni seguenti:

  1. presenta capacità di impatto elevato valutate sulla base di strumenti tecnici e metodologie adeguati, compresi indicatori e parametri di riferimento;
  2. sulla base di una decisione della Commissione, ex officio o a seguito di una segnalazione qualificata del gruppo di esperti scientifici, presenta capacità o un impatto equivalenti a quelli di cui al punto precedente.
Il rischio sistemico è un rischio specifico per le capacità di impatto elevato dei modelli di AI per finalità generali, avente un impatto significativo sul mercato dell’Unione a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l’intera catena del valore.

Questi modelli – sistemi che possono essere applicati a vari contesti e settori, come la ricerca, l’industria, o la sanità, grazie alla loro capacità di eseguire molteplici compiti – sono particolarmente interessanti perché pongono nuove sfide normative: dal momento che la loro applicazione è flessibile, infatti, è difficile valutarne i rischi e stabilire regole specifiche per ognuno di essi.

Per questo il regolamento richiede che i modelli AI per finalità generali siano sviluppati con meccanismi di controllo integrati:

  • per garantire trasparenza, sicurezza e il rispetto delle normative vigenti in ogni settore in cui vengono applicati

e codici di buone pratiche:

  • per fornire i mezzi per garantire che le informazioni siano mantenute aggiornate alla luce degli sviluppi tecnologici e di mercato;
  • per garantire un adeguato livello di dettaglio nella sintesi dei contenuti utilizzati per l’addestramento;
  • per individuare il tipo e la natura dei rischi sistemici e le misure, le procedure e le modalità per la valutazione e la gestione dei rischi sistemici.

Le misure a sostegno dell’Innovazione

Il regolamento intende promuovere l’innovazione nel settore dell’intelligenza artificiale senza frenare lo sviluppo tecnologico.

Fra le misure a sostegno dell’innovazione rientrano:

  •  i sandboxes regolamentari, ambienti controllati in cui le aziende e gli sviluppatori possono testare le loro innovazioni in IA sotto la supervisione delle autorità competenti, prima che queste tecnologie vengano lanciate sul mercato (questo permette agli sviluppatori di sperimentare nuove tecnologie rispettando le normative vigenti e garantendo la sicurezza);
  • supporto alle PMI (vengono previste agevolazioni specifiche per le piccole e medie imprese, riconosciute come una fonte importante di innovazione. Il regolamento introduce misure di semplificazione per queste aziende, permettendo loro di accedere più facilmente a strumenti di AI avanzati senza dover affrontare costi eccessivi di conformità);
  • fondi per la ricerca (l’UE intende continuare ad investire in progetti di ricerca e sviluppo nel campo della IA, con l’obiettivo di mantenere l’Europa competitiva sul piano globale, e ad incoraggiare la collaborazione fra istituzioni di ricerca, università e settore privato per lo sviluppo di nuove tecnologie AI).

Il Regolamento e l’AI nel settore dei trasporti

Un’interessante applicazione pratica delle norme contenute nel regolamento riguarda il settore dei trasporti.
Se n’è accorta per prima la FAA (Federal Aviation Agency) che sta cercando un modo per conciliare la mobilità e sicurezza dei trasporti con l’utilizzo appropriato degli applicativi di AI, e a tale scopo ha cominciato a collaborare con la NASA per cercare di capire come questi applicativi possono permettere di aumentare l’efficienza ed efficacia dei movimenti aerei.

Finanziamenti personali e aziendali

Prestiti immediati

Nel suo report «Rodmap for Artificial Intelligence Safety Assurance», la FAA – nel ribadire che l’AI ha generato (e continua a farlo) un notevole interesse nell’aviazione: dalle applicazioni offline al controllo dei processi all’autonomia a bordo degli aeromobili – ha sottolineato che “prima di essere utilizzata nell’aviazione, questa tecnologia deve dimostrare la sua sicurezza”.

Si tratta di una sfida “per i sistemi che raggiungono prestazioni e capacità attraverso l’apprendimento anziché tramite la progettazione, a causa dell’assenza di principi ingegneristici che guidino il tradizionale processo di progettazione ingegneristica”.

Il documento – il cui scopo è quello di fornire un percorso per garantire la sicurezza dell’IA negli aeromobili e nei sistemi correlati per le operazioni in volo – introduce una serie di Le misure a sostegno dell’Innovazionein materia di AI, fra i quali spiccano quelli relativi alla necessità di:

  • Le misure a sostegno dell’Innovazione: bisogna trattare l’AI come uno strumento, non come un essere umano, e di conseguenza “enfatizzare una chiara assegnazione di responsabilità, evitando un linguaggio incentrato sull’uomo per mantenere una chiara comprensione del ruolo e dei limiti dell’AI (nell’aviazione)”;
  • distinguere fra “Learned e Learning AI, stabilendo distinte garanzie di sicurezza per l’IA appresa (statica) e l’IA appresa (dinamica);
  • adottare un approccio incrementale, “imparando e adattando i metodi di garanzia della sicurezza in base all’applicazione e all’esperienza nel mondo reale”.

In definitiva, il regolamento UE 2024/1689 rappresenta un passo fondamentale per una gestione responsabile dell’AI in Europa: oltre a fornire una struttura normativa chiara per i sistemi ad alto rischio, apre nuove opportunità per l’innovazione e la crescita economica, incoraggiando l’uso etico della AI.

Gli sviluppi nel settore dei trasporti rappresentano un esempio concreto di come questa tecnologia possa trasformare settori tradizionali, ma anche richiedere nuove forme di regolamentazione per garantire la sicurezza e la protezione dei diritti dei cittadini.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link 

Finanziamo strutture per affitti brevi

Gestiamo strutture per affitto breve

Informativa sui diritti di autore

La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni:  la citazione o riproduzione di brani o parti di opera e la loro comunicazione al pubblico sono liberi qualora siano effettuati per uso di critica, discussione, insegnamento o ricerca scientifica entro i limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera citata o riprodotta.

Vuoi richiedere la rimozione dell’articolo?

Clicca qui

 

 

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Informativa sui diritti di autore

La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni:  la citazione o riproduzione di brani o parti di opera e la loro comunicazione al pubblico sono liberi qualora siano effettuati per uso di critica, discussione, insegnamento o ricerca scientifica entro i limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera citata o riprodotta.

Vuoi richiedere la rimozione dell’articolo?

Clicca qui

 

 

Finanziamo strutture per affitti brevi

Gestiamo strutture per affitto breve

 

Informativa sui diritti di autore

Questa è una parte dell’articolo originale

Vuoi approfondire l’argomento, criticarlo, discutere

come previsto dalla legge sul diritto d’autore art. 70

Sei l’autore dell’articolo e vuoi richiedere la rimozione?

Per richiedere la rimozione dell’articolo clicca qui

La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni: “Il riassunto, la citazione (source link) o la riproduzione di brani o di parti di opera e la loro comunicazione al pubblico sono liberi se effettuati per uso di critica o di discussione, nei limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera; se effettuati a fini di insegnamento o di ricerca scientifica l’utilizzo deve inoltre avvenire per finalità illustrative e per fini non commerciali

Finanziamenti personali e aziendali

Prestiti immediati

Finanziamo strutture per affitti brevi

Gestiamo strutture per affitto breve

Finanziamo strutture per affitti brevi

Gestiamo strutture per affitto breve

Per richiedere la rimozione dell’articolo clicca qui

La rete #dessonews è un aggregatore di news e replica gli articoli senza fini di lucro ma con finalità di critica, discussione od insegnamento,

come previsto dall’art. 70 legge sul diritto d’autore e art. 41 della costituzione Italiana. Al termine di ciascun articolo è indicata la provenienza dell’articolo.

Il presente sito contiene link ad altri siti Internet, che non sono sotto il controllo di #adessonews; la pubblicazione dei suddetti link sul presente sito non comporta l’approvazione o l’avallo da parte di #adessonews dei relativi siti e dei loro contenuti; né implica alcuna forma di garanzia da parte di quest’ultima.

L’utente, quindi, riconosce che #adessonews non è responsabile, a titolo meramente esemplificativo, della veridicità, correttezza, completezza, del rispetto dei diritti di proprietà intellettuale e/o industriale, della legalità e/o di alcun altro aspetto dei suddetti siti Internet, né risponde della loro eventuale contrarietà all’ordine pubblico, al buon costume e/o comunque alla morale. #adessonews, pertanto, non si assume alcuna responsabilità per i link ad altri siti Internet e/o per i contenuti presenti sul sito e/o nei suddetti siti.

Per richiedere la rimozione dell’articolo clicca qui