Vertel misschien niet je diepste, donkerste geheimen aan een Ai chatbot zoals chatgpt. Je hoeft er geen woord op te geloven. Neem het van de man achter het meest populaire generatieve AI -model op de markt.
Sam Altman, de CEO van Chatgpt Maker Openai, heeft het probleem deze week aan de orde gesteld in een interview met gastheer Theo Von op de Podcast afgelopen weekend. Hij stelde voor dat uw gesprekken met AI vergelijkbare bescherming zouden moeten hebben als die u hebt met uw arts of advocaat. Op een gegeven second zei Von dat een reden waarom hij aarzelde om een aantal AI -tools te gebruiken, is omdat hij niet wist wie zijn persoonlijke informatie zou hebben “.
“Ik denk dat dat logisch is,” zei Altman, “om de privacyduidelijkheid echt te willen voordat je het veel gebruikt, de juridische duidelijkheid.”
Meer en meer AI -gebruikers zijn chatbots behandelen zoals hun therapeutenartsen of advocaten, en dat heeft voor hen een serieus privacyprobleem gecreëerd. Er zijn geen vertrouwelijkheidsregels en de werkelijke mechanica van wat er met die gesprekken gebeurt, zijn verrassend onduidelijk. Natuurlijk zijn er andere problemen met het gebruik van AI als therapeut of vertrouweling, zoals hoe bots vreselijk advies kunnen geven of hoe ze kunnen stereotypen of stigma versterken. (Mijn collega Nelson Aguilar heeft een lijst samengesteld van de 11 dingen die je nooit met chatgpt moet doen en waarom.)
Altman is zich duidelijk bewust van de problemen hier en lijkt er op zijn minst een beetje final van te maken. “Mensen gebruiken het, vooral jonge mensen, gebruiken het als therapeut, een levenscoach, ik heb deze relatieproblemen, wat moet ik doen?” zei hij. “Op dit second, als u met een therapeut of een advocaat of een arts over die problemen praat, is er juridisch voorrechten voor.”
De vraag kwam op tijdens een deel van het gesprek over de vraag of er zou moeten zijn Meer regels of voorschriften rond AI. Regels die AI -bedrijven en de ontwikkeling van de technologie onderdrukken, zullen tegenwoordig waarschijnlijk geen gunst krijgen in Washington, als die van president Donald Trump AI -actieplan Deze week vrijgegeven uitte de wens om deze technologie minder te reguleren, niet meer. Maar regels om ze te beschermen kunnen gunst vinden.
Lees meer: AI Essentials: 29 manieren waarop u Gen Ai voor u kunt laten werken, volgens onze experts
Altman leek zich het meest zorgen te maken over een gebrek aan wettelijke bescherming voor bedrijven zoals de zijne om te voorkomen dat ze gedwongen worden om privégesprekken in rechtszaken over te dragen. Openai heeft bezwaar om verzoeken om gebruikersgesprekken te behouden tijdens een rechtszaak met de New York Occasions over Inbreuk op het auteursrecht en intellectueel eigendom problemen. (Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, heeft in april een rechtszaak aangespannen tegen Openai, die beweerde dat het inbreuk maakte op Ziff Davis -auteursrechten in het trainen en exploiteren van zijn AI -systemen.)
“Als je gaat praten met Chatgpt over de meest gevoelige dingen en dan is er een rechtszaak of wat dan ook, kunnen we dat produceren,” zei Altman. “Ik denk dat dat erg verknald is. Ik denk dat we hetzelfde idea van privateness moeten hebben voor uw gesprekken met AI dat u doet met uw therapeut of wat dan ook.”
Bekijk dit: OpenAI debuteert “Examine Mode” voor studenten, de information -app -datalag, en kan een robothond uw volgende pizza bezorgen? | Tech vandaag
Wees voorzichtig met wat u AI over uzelf vertelt
Voor u is het probleem niet zozeer dat Openai uw gesprekken misschien in een rechtszaak moet omdraaien. Het is een vraag wie u vertrouwt met uw geheimen.
William Agnew, een onderzoeker aan de Carnegie Mellon College die deel uitmaakte van een crew dat geëvalueerde chatbots Over hun prestaties die betrekking hebben op therapie-achtige vragen, vertelde me onlangs dat privateness een van het grootste belang is bij het vertrouwen in AI-tools. De onzekerheid over hoe modellen werken – en hoe uw gesprekken worden voorkomen om in de chats van andere mensen te verschijnen – is reden genoeg om aarzelend te zijn.
“Zelfs als deze bedrijven proberen voorzichtig te zijn met uw gegevens, zijn deze modellen goed bekend om informatie op te richten,” zei Agnew.
Als chatgpt of een andere instrument informatie uit uw therapiesessie of van medische vragen die u heeft gesteld, kan opsplitsen, zou dat kunnen verschijnen of uw verzekeringsmaatschappij of iemand anders met interesse in uw persoonlijke leven dezelfde instrument over u vraagt.
“Mensen moeten echt meer aan privateness nadenken en gewoon weten dat bijna alles wat ze vertellen deze chatbots niet privé is,” zei Agnew. “Het zal op allerlei manieren worden gebruikt.”
Populaire producten
Telefoonringhouder en magnetische a...
360° draaibare telefoonring grip s...
DJI Osmo Mobile 6 smartphone stabil...
MGPX Bluetooth 5.0 Gamecontroller v...
360° draaibare telefoonringhouder ...
Dubbele koude schoen smartphonehoud...
Zelfklevende telefoonhouder vingerl...
Lamicall flexibele zwanenhals telef...
Universele smartphonehouder 58-105 ...
