Interessante publicaties, blogs, video’s en audio’s gerelateerd aan mijn werk als informatieprofessional.

  • LeenLiefOPM
    link
    fedilink
    Nederlands
    arrow-up
    1
    ·
    edit-2
    8 months ago

    Hoe disruptief is ChatGPT voor wetenschappelijk onderzoek?

    In mei 2023 voorspelde Accenture1 dat generatieve AI-tools zoals ChatGPT en Google Bard zo’n 40 procent van de werkuren in diverse sectoren kunnen automatiseren. ‘Bijna alle banen worden beïnvloed – sommige zullen verdwijnen, de meeste functies zullen veranderen en er zullen veel nieuwe banen worden gecreëerd’, aldus een conclusie van Accenture. De kracht van generatieve AI voor organisaties ligt echter niet eens zozeer in de tools zelf, maar in de mate waarin de organisaties in staat zijn de tools te integreren in de dagelijkse processen. Organisaties die nu stappen zetten om AI te integreren in hun bedrijfsprocessen én hun medewerkers trainen om samen te werken met de technologie, zullen een voorsprong hebben op concurrenten die minder creatief zijn.

    image

    #kunstmatige intelligentie #onderzoek

    Mijn notes:

    Verantwoord gebruik van generatieve AI lijkt het toverwoord, al verschillen de uitgevers in de uitwerking van wat zij verstaan onder verantwoord gebruik.

    Nadelen die aan het gebruik kleven, zijn gebrek om de authenticiteit van de inhoud te verifiëren, geen erkenning van originele auteurs, schending van auteursrecht en het verspreiden van valse informatie. Juist eerlijkheid, transparantie, openheid, nauwgezetheid en objectiviteit zijn belangrijke waarden voor wetenschappelijk onderzoek.

    Ook het gebrek aan reproduceerbaarheid is hierbij heel belangrijk. Een probleem bij het gebruik van door AI gegenereerde tekst is dat AI niet verantwoordelijk te houden is voor het werk. De tools kunnen op deze manier het vertrouwen in de wetenschap schenden.

    Hoewel systemen zoals ChatGPT zijn getraind op uitgebreide datasets, kunnen ze onnauwkeurigheden reproduceren of zelfs nieuwe onnauwkeurigheden creëren. De plausibele output die past bij het patroon van de invoer kan een rooskleurig maar misleidend beeld schetsen van bijvoorbeeld onderzoeksresultaten.

    AI-systemen staan er om bekend dat ze menselijke vooroordelen reproduceren, omdat die in trainingsgegevens van de technologie zitten.

    Tenslotte kunnen er zorgen zijn over het gebruik van persoonlijke of gevoelige informatie in lerende systemen, zeker wanneer de werking van die systemen door de ontwikkelaar onzichtbaar wordt gehouden.

    Een editorial van het tijdschrift ‘Accountability in Research’ geeft enkele suggesties om verantwoord gebruik van AI te duiden: wees transparant over het gebruik bij het schrijven van de tekst en bij het genereren van ideeën, accepteer de volledige verantwoordelijkheid voor de accuraatheid van de tekst, en geef aan wie het heeft gebruikt, het tijdstip en de datum, de prompts die zijn gebruikt om de tekst te genereren, de secties die de tekst bevatten en ideeën in de tekst die het gevolg zijn van het gebruik van de AI: ‘Iemand van vlees en bloed moet verantwoordelijkheid nemen voor de tekst, daarom benadrukken we transparantie, eerlijkheid en volledige openbaarmaking van het gebruik van dit soort mogelijkheden’ (Hosseini et al., 2023).

    De ‘AI-Act’ van de Europese Unie (in onderhandelingsfase) eist transparantie, zoals onthullen welke inhoud AI-gegenereerd is. Digitale watermerken die de oorsprong van een tekst, afbeelding of video identificeren, kunnen een werkbaar reguleringsmechanisme zijn.

    Een groep onderzoekers van de Universiteit van Amsterdam publiceerde recent hierover een reeks ‘levende richtlijnen’, met aandacht voor AI-geletterdheid, zodat onderzoekers, maar ook het bredere publiek veilig en ethisch generatieve AI tools kunnen gebruiken.