@paoloredaelli @lgsp @informatica
Una strategia potrebbe essere pubblicare il rallentatore senza link, non raggiungibile, l’unico riferimento è nel robots.txt con l’istruzione di NON indicizzare.
Chi accede ha letto robots.txt ignorandone il contenuto e allora sono un pò risorse sue, indipendentemente dal fatto che sia un LLM o un motore di ricerca…
Chi il file manco lo cerca la passa liscia, ma chi lo usa come ‘spunto’, ci casca: bicchiere mezzo pieno?
@Suoko …finché ciascuno usa ciò che può usare entro i limiti previsti, siamo a posto.
Zuck pare abbia dato in pasto a [il suo aggeggio] di tutto di più e pare non ne avesse il diritto: violazione del cpyright.
@Suoko IANAL, ma i primi due casi mi sembrano ordinaria amministrazione: paghi per usare e usi…
Il terzo, anche: se nel copyright mettono una clausola, diventa vincolante (IANAL!).
sarcasm
Nell’ultimo caso, dipenderà dall’abbonamento che avrai pagato a chi ti noleggia il chip: se non hai il profilo superpremium gigatop, vedrai quadrettoni stile minecraft e solo delle opere di autori con nomi palindromi.
Se salti una rata o disdici, beh, allora…
/sarcasm
@Suoko il discorso avrà un senso se e quando avremo l’IA.
Stiamo parlando di persone che hanno usato materiale non liberamente disponibile per addestrare modelli matematici/linguistici/statistici, non si tratta di IA che in autonomia decidono a cosa accedere.
Le persone hanno usato i dati senza averne l’autorizzazione.
Non facciamoci fregare dall’uso marchettaro del termine ‘intelligenza artificiale’: il computer senziente stile fantascienza, al momento non esiste. @quinta
@menarello @evilworld la descrizione del meccanismo fa pensare al secureboot dei pc.
È qualcosa di simile?