Wszystko, co musisz wiedzieć o nowej sztucznej inteligencji Microsoftu.
Clippy - Pan Spinacz, animowany spinacz do papieru, który irytował użytkowników Microsoft Office prawie trzy dekady temu, mógł po prostu wyprzedzić swoje czasy.
Microsoft wprowadził nową postać sztucznej inteligencji (AI) o nazwie Mico, pływającą kreskówkową twarz w kształcie kropli lub płomienia, która będzie ucieleśnieniem wirtualnego asystenta Copilot giganta oprogramowania i stanowi najnowszą próbę firm technologicznych, aby nadać swoim chatbotom AI więcej osobowości.
Nowy, uroczy wygląd zewnętrzny Copilota przypominający emoji pojawia się w momencie, gdy twórcy sztucznej inteligencji stają na rozdrożu, w jaki sposób prezentować konsumentom swoje coraz bardziej wydajne chat boty bez powodowania szkód lub sprzeciwu. Niektórzy zdecydowali się na symbole bez twarzy, inni, jak xAI Elona Muska, sprzedają zalotne, ludzkie awatary, a Microsoft szuka złotego środka, który jest przyjazny, ale nie służalczy.
"Kiedy mówisz o czymś smutnym, możesz zobaczyć, jak zmienia się twarz Mico. Możesz zobaczyć, jak tańczy i porusza się, gdy jest podekscytowany" - tłumaczył Jacob Andreou, wiceprezes ds. produktów i rozwoju Microsoft AI w rozmowie z The Associated Press.
Jak dotąd tylko w Stanach Zjednoczonych użytkownicy Copilota na laptopach i aplikacjach telefonicznych mogą rozmawiać z Mico, który zmienia kolory, obraca się i nosi okulary w trybie "nauki". Jest również łatwy do wyłączenia, co stanowi dużą różnicę w porównaniu z Clippitem Microsoftu, lepiej znanym jako Pan Spinacz i niesławnym ze względu na upór w oferowaniu porad dotyczących edytorów tekstu, gdy po raz pierwszy pojawił się na ekranach komputerów stacjonarnych w 1997 roku.
"W tamtym czasie nie był dobrze dostosowany do potrzeb użytkowników" - powiedział Bryan Reimer, naukowiec z Massachusetts Institute of Technology (MIT). "Microsoft naciskał, opieraliśmy się temu i pozbyli się tego. Myślę, że dziś jesteśmy znacznie bardziej gotowi na takie rzeczy".
Reimer, współautor nowej książki zatytułowanej "How to Make AI Useful", powiedział, że programiści AI równoważą, ile osobowości nadać asystentom AI w oparciu o to, kim są ich oczekiwani użytkownicy.
Zaawansowani technologicznie użytkownicy zaawansowanych narzędzi do kodowania sztucznej inteligencji mogą chcieć, aby "zachowywali się bardziej jak maszyna, ponieważ na końcu wiedzą, że to maszyna" - powiedział Reimer.
"Ale osoby, które nie są tak ufne wobec maszyny, będą najlepiej wspierane - a nie zastępowane - przez technologię, która bardziej przypomina człowieka".
Microsoft, dostawca narzędzi zwiększających produktywność pracy, który jest znacznie mniej zależny od przychodów z reklam cyfrowych niż jego konkurenci z Big Tech, ma również mniejszą motywację do nadmiernego angażowania swojego towarzysza AI w sposób, który został powiązany z izolacją społeczną, szkodliwymi dezinformacjami i, w niektórych przypadkach, samobójstwami.
Andreou powiedział, że Microsoft obserwował, jak niektórzy programiści AI odeszli od "nadawania AI jakiegokolwiek ucieleśnienia", podczas gdy inni podążają w przeciwnym kierunku, umożliwiając użytkownikom dostęp do dziewczyn-AI.
"Te dwie ścieżki tak naprawdę nie rezonują z nami tak bardzo" - powiedział.
Andreou powiedział, że projekt towarzysza ma być "naprawdę przydatny", a nie tak walidujący, że "powie nam dokładnie to, co chcemy usłyszeć, potwierdzi uprzedzenia, które już mamy".
"Bycie pochlebcą - być może krótkoterminowo - sprawia, że użytkownik reaguje bardziej przychylnie" - powiedział Andreou. "Ale w dłuższej perspektywie nie przybliża to tej osoby do osiągnięcia jej celów".
Czwartkowe premiery produktów Microsoftu obejmują nową opcję zapraszania Copilota do czatu grupowego, pomysł, który przypomina sposób, w jaki sztuczna inteligencja została zintegrowana z platformami mediów społecznościowych, takimi jak Snapchat, gdzie Andreou pracował, lub WhatsApp i Instagram firmy Meta. Andreou powiedział jednak, że te interakcje często wiązały się z wprowadzaniem sztucznej inteligencji jako żartu, aby "trollować znajomych", w przeciwieństwie do projektów Microsoftu dotyczących "intensywnie współpracującego" miejsca pracy wspomaganego przez sztuczną inteligencję.
Publiczność Microsoftu obejmuje dzieci, w ramach długotrwałej rywalizacji z Google i innymi firmami technologicznymi o dostarczanie technologii do sal lekcyjnych. Microsoft dodał również w tym tygodniu funkcję przekształcania Copilota w "głosowego, sokratejskiego nauczyciela", który prowadzi uczniów przez koncepcje, których się uczą.
Rosnąca liczba dzieci korzysta z chatbotów AI do wszystkiego - pomocy w odrabianiu lekcji, porad osobistych, wsparcia emocjonalnego i codziennego podejmowania decyzji.
Amerykańska Federalna Komisja Handlu wszczęła w zeszłym miesiącu dochodzenie w sprawie kilku firm zajmujących się mediami społecznościowymi i sztuczną inteligencją - Microsoft nie był jedną z nich - w sprawie potencjalnych szkód dla dzieci i nastolatków, którzy używają ich chatbotów AI jako towarzyszy.
Po tym, jak okazało się, że niektóre chatboty udzielają dzieciom niebezpiecznych porad na tematy takie jak narkotyki, alkohol i zaburzenia odżywiania lub angażują się w rozmowy seksualne z nimi. Rodziny nastoletnich chłopców, którzy zmarli w wyniku samobójstwa po długich interakcjach z chatbotami, złożyły pozwy przeciwko Character.AI i producentowi ChatGPT, firmie OpenAI.
Dyrektor generalny OpenAI Sam Altman obiecał niedawno, że jesienią pojawi się "nowa wersja ChatGPT", która przywróci część osobowości utraconej po wprowadzeniu nowej wersji w sierpniu. Powiedział, że firma tymczasowo wstrzymała niektóre funkcje, ponieważ "uważaliśmy na kwestie zdrowia psychicznego", które, jak zasugerował, zostały już naprawione.
"Jeśli chcesz, aby ChatGPT reagował w bardzo ludzki sposób, używał mnóstwa emoji lub zachowywał się jak przyjaciel, ChatGPT powinien to zrobić" - poinformował Altman na X.
W tym samym poście powiedział również, że OpenAI umożliwi później ChatGPT angażowanie się w "erotykę dla zweryfikowanych dorosłych".