Etyczne implikacje konwersacyjnej sztucznej inteligencji.

Ile rozmów przeprowadziłeś z chatbotem w ciągu ostatnich trzech miesięcy? Są szanse, że możesz nie mieć pojęcia.

Zobacz powiązane Frankenstein, sztuczna inteligencja i zamiłowanie ludzkości do przerażającej technologii Google Duplex: Google odpowiada na etyczne obawy dotyczące sztucznej inteligencji udającej ludzi Czym jest sztuczna inteligencja? Dziesięć rzeczy, które musisz wiedzieć o przyszłości sztucznej inteligencji

Etyczne implikacje konwersacyjnej sztucznej inteligencji

Jako konsumenci z łatwością podchodzimy do interakcji z usługami internetowymi i zwykle nie pamiętamy, ile ich łącznie mamy, nie mówiąc już o tym, ile jest z ludźmi, a ile z chatbotami. W rzeczywistości w niektórych przypadkach możemy nie zawsze być w stanie odróżnić.

Ostatecznie, czy to w ogóle ma znaczenie, czy rozmawiamy z ludźmi, czy z botami, o ile doświadczenie jest płynne, a praca zostanie wykonana? Cóż, z punktu widzenia ochrony danych z pewnością tak.

Etyczne implikacje konwersacyjnej sztucznej inteligencji

Chatboty to przyszłość

Opinie na temat tego, jak rozpowszechnione będą chatboty w najbliższej przyszłości, są różne, ale niezależnie od tego, jak pokroisz statystyki, jesteśmy w trakcie rewolucji. Firma analityczna Gartner spodziewa się, że do 2020 roku jedna czwarta wszystkich operacji obsługi klienta będzie korzystała z tak zwanych „wirtualnych asystentów klienta”, podczas gdy IBM powiedział, że do tego samego roku 85% wszystkich interakcji z klientami będzie odbywało się bez udziału człowieka.

Zadowolenie klientów wzrasta o 33%, gdy używane są boty

Etyczne implikacje konwersacyjnej sztucznej inteligencji

Istnieje wiele powodów, dla których firmy przedkładają boty napędzane sztuczną inteligencją nad ludzi. Nie potrzebują dużo szkolenia, mogą wyeliminować kolejki, ponieważ zawsze jest miejsce, które zawsze można przydzielić klientowi w dowolnym momencie, i są w stanie działać 24 godziny na dobę.

Konsumenci również zaczynają faworyzować korzystanie z chatbota zamiast kontaktu z osobą. Według Gartnera zadowolenie klientów wzrasta o 33%, gdy używane są boty, i prowadzi do 70% redukcji liczby zapytań telefonicznych/czatowych lub e-mailowych.

Etyczne implikacje konwersacyjnej sztucznej inteligencji

PRZECZYTAJ DALEJ: Dlaczego Frankenstein wciąż wykorzystuje nasze obawy związane z technologią 200 lat później

Słuchaj i ucz się

Nie ma wątpliwości, że sztuczna inteligencja może wyciągać wnioski lub dedukcje na nasz temat na podstawie naszych interakcji. „Jest to stosunkowo proste do wykonania, jeśli za interfejsem sztucznej inteligencji kryje się pokaźny zestaw danych” — wyjaśnia Steffen Sorrell, główny analityk w Juniper Research.

Mark Stephen Meadows, powiernik i współzałożyciel Seed Token, platformy AI typu open source, wyjaśnia SamaGame: „Sposób, w jaki powiedziałem słowo, może być modelowany i ma to szczególne znaczenie, gdy użytkownik wypowiada frazę lub zdanie. ponad 200 innych wektorów (takich jak płeć, wiek itp.) te systemy słuchowe mogą wykryć „afekt” lub „sentyment” lub po prostu emocje. Daje to głęboki wgląd w stan psychiczny użytkownika”.

Etyczne implikacje konwersacyjnej sztucznej inteligencji

AI nie potrzebuje nawet naszych słów. University of Vermont zidentyfikował znaki na zdjęciach na Instagramie, które mogą wskazywać na depresję. Jednak takie postępy budzą wśród społeczności badawczej pytania, czy prawo do prywatności danych nie jest naruszane.

Kwestia etyki

Być może jest to kwestia symetrii władzy – idea, że ​​firma i chatbot mają silniejszą pozycję w stosunku do konsumenta.

„Mamy potencjalny problem” — wyjaśnia Meadows SamaGame. „Sztuczna inteligencja szybko staje się nieetyczna ze względu na zdolność do gromadzenia większej ilości informacji o osobie niż ta o systemie”. Duża część tego zgromadzenia ma charakter pasywny w celu poinformowania o szkoleniu sztucznej inteligencji i nie zawsze jest objęta zgodą.

Etyczne implikacje konwersacyjnej sztucznej inteligencji

Steffen Sorrell z Juniper Research podaje przykład firmy oferującej pożyczki krótkoterminowe, oferującej swoje usługi użytkownikowi, który wcześniej wyraził obawy dotyczące swojej sytuacji finansowej chatbotowi AI.

PRZECZYTAJ DALEJ: Chatbot Google Duplex może wkrótce przejąć call center

„Większość konsumentów uznałaby, że ich uzasadnione oczekiwania dotyczące prywatności w tak delikatnej kwestii zostały naruszone” — wyjaśnia Sorrell. „To się jednak zmienia, jeśli użytkownik wyraźnie wyraził zgodę na tego rodzaju udostępnianie informacji”.

Brytyjski komisarz ds. informacji zgadza się. Rzecznik powiedział nam: „Wszędzie tam, gdzie przetwarzane są dane osobowe, obowiązuje prawo o ochronie danych. Organizacje są zobowiązane do przetwarzania danych osobowych w sposób rzetelny, zgodny z prawem i przejrzysty, niezależnie od wykorzystywanej technologii. Kluczowe jest, aby osoby fizyczne były odpowiednio informowane o przetwarzaniu i miały jasność, w jaki sposób mogą egzekwować swoje prawa”.

Etyczne implikacje konwersacyjnej sztucznej inteligencji

Zderzenie z RODO

Według ICO firmy powinny nadal zapewniać przestrzeganie polityki ochrony danych już w fazie projektowania, nawet w przypadku rozwoju sztucznej inteligencji.

„Przyglądając się niektórym technologiom, organizacje powinny upewnić się, że przestrzegają podejścia do ochrony danych już w fazie projektowania i, jeśli to konieczne, przeprowadzić ocenę wpływu na ochronę danych. Dzięki temu mogą zapewnić, że ich przetwarzanie jest zgodne z podstawowymi zasadami ochrony danych.”

Tam, gdzie obowiązują Ogólne przepisy o ochronie danych – czyli dla każdej firmy przetwarzającej dane obywateli UE – użytkownicy mają lepszą kontrolę nad tym, jakie informacje o nich są udostępniane. Jednak Sorrell twierdzi, że brak informacji w formacie łatwo zrozumiałym dla ogółu społeczeństwa oznacza, że ​​jest mało prawdopodobne, aby użytkownicy poznali pełny zakres nowych uprawnień.

Etyczne implikacje konwersacyjnej sztucznej inteligencji

Na przykład „nawet w kontekście RODO niewielu konsumentów zrozumie, że mają prawo prosić o wyjaśnienie każdej decyzji opartej na algorytmie” – wyjaśnia.

PRZECZYTAJ DALEJ: Osobisty asystent, który może rozmawiać w GIF-ach

W nadchodzących latach będziemy spędzać coraz więcej czasu na interakcji z botami

Projekt Seed Token firmy Meadows ma na celu przeciwstawienie się tradycyjnej idei organizacji będących właścicielami danych generowanych przez sztuczną inteligencję, a zamiast tego wykorzystuje blockchain i open source, aby umożliwić użytkownikom określenie ich preferencji dotyczących prywatności i udostępniania danych. Jest przedstawiany jako narzędzie, które może zresetować równowagę, odbierając władzę kilku wybranym organizacjom obecnie zarządzającym przestrzenią sztucznej inteligencji, otwierając rozwój i umożliwiając lepszą współpracę między użytkownikami i programistami.

To szlachetny pomysł, ale prawdopodobnie będzie miał trudności, biorąc pod uwagę wysoce sporny i lukratywny rynek, który konwersacyjna sztuczna inteligencja rozpali się w nadchodzących latach. Obecna trajektoria sugeruje, że w nadchodzących latach będziemy spędzać coraz więcej czasu na interakcji z botami. Stojąca za nimi sztuczna inteligencja prawdopodobnie będzie generować coraz więcej wiedzy o nas – w tym wnioski, których niekoniecznie jesteśmy świadomi.

Wygląda na to, że ta wschodząca branża sztucznej inteligencji do konwersacji może równie dobrze znaleźć się na kursie kolizyjnym z RODO. Tak jak IoT, który przez lata biernie gromadził informacje w ramach swojego składu, został uznany przez brytyjski organ ochrony danych za „nie do pogodzenia z RODO”, tak samo mogą stać się chatboty w nadchodzących latach.