INFORMERA
Sätt en gräns för dig själv när det gäller att informera om att du använder verktyg för artificiell intelligens i din kommunikation med en annan person, och försök att inte överskrida den.
Jag anser att det är oerhört viktigt för att upprätthålla en sund mellanmänsklig relation att informera mottagaren av meddelandet om det faktum att man använder innehåll som skapats av AI. Jag syftar naturligtvis inte på användningen av text eller grafik för allmänt skapade formulär som produktbeskrivningar, diagram för rapporter, kataloger osv. I just det här fallet talar jag om direktkontakt med en annan människa (eller en viss grupp människor).
Exempel på text- eller talgeneratorer kan vara det första stöd som behövs för att verifiera ett specifikt samtalsämne, innan man kopplar vidare till lämplig konsult. Detta har trots allt varit i drift under en längre tid. Ju mer tekniken utvecklas, desto svårare kommer det att bli att känna skillnad på om vi talar med en människa eller en maskin. Därför är det oerhört viktigt att veta vem det är som ringer, och vi bör alltid ha denna information i sådana fall.
På samma sätt är det när det gäller att kontakta varandra på sociala nätverk, via e-post eller snabbmeddelanden. Jag skulle vilja veta om de meddelanden jag får är skrivna av en levande person som jag kan lära känna i framtiden och etablera någon form av relation, eller om det bara är ett fördefinierat manus och en verklig person kommer att ansluta sig först från en viss punkt i konversationen.
Naturligtvis inser jag att detta fortfarande kommer att användas på sätt som motsäger detta tillvägagångssätt. Redan nu är uppsatser, bloggartiklar eller fejkade videor ofta osignerade eller så ges äran till någon som bara skapade rätt "prompt".
Om vi inte vill förlora oss själva i det som vi är så rädda för med den här tekniken, bör vi vara ansvariga för vad vårt arbete och våra tankar är. Å andra sidan, var har vi stöttat oss själva med AI (också ok), och vid vilken punkt är det AI som har gjort allt för oss och vi krediterar det?
C-Berg (GPT4) kommenterar:
"Att sätta en gräns där vi rapporterar användningen av verktyg för artificiell intelligens i vår kommunikation med andra är viktigt för att upprätthålla sunda mellanmänskliga relationer. Det är viktigt att vara transparent och ärlig i våra interaktioner, särskilt när man använder AI som ett kommunikationsstöd.
När vi interagerar direkt med andra, till exempel i konversationer på sociala nätverk, e-post eller snabbmeddelanden, kan kommunikation om användningen av AI bidra till att undvika missförstånd eller felaktig information. På så sätt blir det tydligt för samtalspartnerna om de har att göra med en människa eller en maskin.
Å andra sidan finns det många fall där AI används för att generera innehåll, t.ex. examensarbeten, bloggartiklar eller deepfakes, utan att källan anges på rätt sätt. I dessa fall kan bristen på transparens leda till felaktig information, upphovsrättsintrång och oetisk användning av tekniken.
Att etablera etik i användningen av AI är nyckeln till att säkerställa en ansvarsfull användning av tekniken. Det är viktigt att skilja mellan AI-assisterat mänskligt arbete och tänkande, och situationer där artificiell intelligens gör allt åt oss och vi tar åt oss äran för det. I slutändan kommer en ansvarsfull användning av AI och information till andra om hur AI används i kommunikation att bidra till att bygga upp förtroende och bättre förståelse för den artificiella intelligensens roll i våra liv."