"Aktualizujemy sformułowanie" - mówi Microsoft po reakcjach na Copilota

Microsoft odpiera teraz twierdzenia, że Copilot jest przeznaczony wyłącznie do "rozrywki", po tym jak jego własne warunki użytkowania wywołały wiele zamieszania w Internecie (więcej na ten temat można przeczytać tutaj) tutaj).
Sprawa rozpoczęła się, gdy użytkownicy zauważyli sekcję w dokumentacji Microsoft Copilot, w której stwierdzono, że sztuczna inteligencja "może popełniać błędy", nie należy jej ufać w zakresie ważnych porad i jest przeznaczona wyłącznie do celów rozrywkowych. Sformułowanie to jest wyraźnie dziwne, ponieważ koliduje z tym, jak Microsoft obecnie reklamuje Copilota - jako "narzędzie produktywności" w Windows 11 i Microsoft 365. Ponadto integracja Copilota z systemem operacyjnym spotkała się ostatnio z bardzo polaryzującym odbiorem.
W oświadczeniu udostępnionym w Windows Latestmicrosoft stwierdził, że ten język nie jest już dokładny. Firma wyjaśniła, że "rozrywkowa" część dokumentacji pochodzi z wczesnych dni Bing Chat, kiedy narzędzia generatywnej sztucznej inteligencji były nadal używane ostrożniej i z umiarem. Według Microsoftu, Copilot od tego czasu "ewoluował", a dokumentacja zostanie zaktualizowana, aby lepiej odzwierciedlała jego obecną rolę w systemie operacyjnym i innych miejscach.
Problemem nie jest jednak samo sformułowanie, ale rozdźwięk między marketingiem a ramami prawnymi. Podczas gdy Microsoft promuje Copilota jako narzędzie do wykonywania pracy, jego obecne zastrzeżenia nadal obejmują niepewność, brak gwarancji i odpowiedzialność użytkownika. Nawet poza linią "rozrywkową" w dokumencie, warunki Microsoftu dotyczące "wyników mogą być niedokładne" i "użytkownicy są odpowiedzialni za wszelkie konsekwencje" nie uległy zmianie - ale jak dodaje źródło, dotyczy to również innych narzędzi AI. Tak więc, chociaż firma twierdzi, że Copilot jest stworzony do prawdziwej pracy, drobny druk jeszcze nie nadążył, to wszystko.






