Human Native AI, een startup uit Londen, heeft £2,8 miljoen (3,3 miljoen in Euro's, en 3,5 miljoen in dollars) aan startkapitaal opgehaald om een innovatieve marktplaats te bouwen voor AI-training en licentieovereenkomsten. Dit platform, gefinancierd door LocalGlobe en Mercuri, biedt een oplossing voor de complexe juridische en ethische kwesties rondom het gebruik van auteursrechtelijk beschermde gegevens bij het trainen van AI-modellen.
De Uitdaging
Met de groeiende populariteit van AI-modellen zoals grote taalmodellen, ontstaat er steeds meer controverse over het gebruik van auteursrechtelijk beschermd materiaal. AI-ontwikkelaars hebben toegang nodig tot hoogwaardige, uitgebreide datasets om effectieve en betrouwbare modellen te kunnen bouwen. Dit heeft geleid tot juridische geschillen en zorgen over de eerlijke compensatie van rechthebbenden wiens werk wordt gebruikt zonder toestemming of compensatie.
De Oplossing van Human Native AI
Human Native AI's marktplaats stelt rechthebbenden in staat om hun werken te licentiëren voor AI-training, waarbij ze kunnen kiezen uit verschillende licentiemodellen zoals opbrengstdeling, abonnementen of eenmalige betalingen. Dit zorgt ervoor dat rechthebbenden eerlijk worden gecompenseerd en dat AI-ontwikkelaars toegang hebben tot legale, hoogwaardige data.
Het platform biedt een uitgebreide catalogus van auteursrechtelijk beschermde werken, waarbij rechthebbenden gedetailleerde controle hebben over hoe en voor welke doeleinden hun werken worden gebruikt. Daarnaast worden er monitoringtools ontwikkeld om misbruik van auteursrechtelijk beschermd materiaal te detecteren en te voorkomen.
De goede bedoelingen
Met deze financiering zal Human Native AI haar team verder uitbreiden en de ontwikkeling van het product en de samenwerkingen versnellen. De marktplaats zal een cruciale rol spelen in het beschermen van intellectueel eigendom en het bevorderen van eerlijke concurrentie en participatie binnen de AI-industrie. Door de combinatie van legale zekerheid voor ontwikkelaars en eerlijke compensatie voor rechthebbenden, streeft Human Native AI ernaar om de basis te leggen voor een duurzamere en ethisch verantwoorde AI-industrie.
Gaat dit werken?
Neu... De rechthebbenden moeten aan een nieuw verdienmodel gaan werken. Het is al te laat om te kunnen achterhalen welke training-data ooit is gebruikt voor het trainen van taal-, muziek- en image modellen. Monitoringtools om misbruik te detecteren gaan falen, met veel false positives, en weinig true positives. Sinds de jaren 90 zou je jezelf er bewust van moeten zijn, dat zodra je iets publiceert, je het ook echt "aan het publiek" beschikbaar stelt. Nieuwe verdienmodellen moeten journalistiek en kunst gaan redden, het overspannen tegen proberen te houden van gebruik van eerder publiek gemaakt materiaal is een gedachte uit de vorige eeuwen. Maar, ik ben niet alwetend en geef mijn mening graag voor een beter gefundeerde.
コメント