Notebookcheck Logo

Apple napina mięśnie sztucznej inteligencji dzięki nowym funkcjom dostępności, które pojawią się w iOS 17

Appleassistive Access wspiera użytkowników z zaburzeniami poznawczymi. (Źródło: Apple)
Appleassistive Access wspiera użytkowników z zaburzeniami poznawczymi. (Źródło: Apple)
Apple podjęła nietypowy krok polegający na wyświetleniu podglądu funkcji systemu iOS 17 przed jego oczekiwanym ogłoszeniem na WWDC 2023. Nowe funkcje koncentrują się na zwiększeniu dostępności dla użytkowników niepełnosprawnych, a Apple wykorzystuje przy tym swoje umiejętności w zakresie sztucznej inteligencji.
Apple iPhone iOS AI

W nieco nietypowym posunięciu, Apple ma wstępnie ogłosił nowe funkcje, które pojawią się w iOS 17 przed jego oficjalnym ogłoszeniem. Najważniejsze dodatki to Live Speech i Personal Voice Advanced Speech Accessibility, Assistive Access wspierający użytkowników z niepełnosprawnościami poznawczymi oraz nowy tryb wykrywania w Lupie, który ma pomóc użytkownikom z wadami wzroku.

Być może najbardziej futurystycznym z nich jest Personal Voice, który wykorzystuje uczenie maszynowe na urządzeniu (AI), aby umożliwić użytkownikom zagrożonym utratą zdolności mówienia (takim jak osoba, u której niedawno zdiagnozowano ALS) stworzenie głosu, który brzmi jak oni. Użytkownicy tworzą swój Person Voice, szkoląc model AI, aby odtworzył ich głos, czytając wraz z losowym zestawem podpowiedzi tekstowych, których ukończenie zajmuje około 15 minut. Integruje się to z nową funkcją Live Speech, która pozwala użytkownikom wpisywać to, co chcą powiedzieć i wypowiadać to na głos podczas rozmowy telefonicznej, rozmowy FaceTime lub rozmowy osobistej.

Aplikacja Assistive Access została zaprojektowana w taki sposób, by ograniczyć popularne aplikacje iPhone'a do ich najważniejszych funkcji, ułatwiając korzystanie z nich i interakcję z nimi. Apple współpracował z użytkownikami z niepełnosprawnościami poznawczymi i ich zwolennikami, aby stworzyć bardziej dostępne aplikacje, w tym Telefon i FaceTime, przekształcając je w jedną aplikację do połączeń, a także usprawniając Wiadomości, Aparat, Zdjęcia i Muzykę. Celem wprowadzonych zmian jest zmniejszenie obciążenia poznawczego użytkowników, aby mogli łatwiej wykonywać swoje zadania lub cieszyć się korzystaniem z iPhone'a przy znacznie mniejszym wysiłku.

Apple zaprezentowano również tryb wykrywania w aplikacji Lupa - kolejnym narzędziu opartym na sztucznej inteligencji - który wprowadza funkcję Wskaż i mów, aby ułatwić użytkownikom niedowidzącym interakcję z obiektami fizycznymi w ich domu lub wokół nich, które mają kilka etykiet tekstowych. Na przykład, podczas korzystania z urządzenia gospodarstwa domowego, takiego jak kuchenka mikrofalowa, Point and Speak łączy dane wejściowe z kamery i skanera LiDAR, aby odczytać tekst na każdym przycisku, gdy użytkownicy przesuwają palcami po klawiaturze piekarnika. Point and Speak współpracuje również z wykrywaniem osób, wykrywaniem drzwi i deskryptorami obrazu, aby pomóc użytkownikom w łatwiejszym poruszaniu się po ich środowiskach.

Podczas gdy te wczesne podglądy nowych funkcji ułatwień dostępu w iOS 17 wskazują, że WWDC 2023 będzie pełne ogłoszeń, jasne jest, że Apple chce również pokazać, że nie pozostaje w tyle, jeśli chodzi o wprowadzanie funkcji opartych na sztucznej inteligencji do swoich produktów.

Kup najnowszy iPhone SE od Amazon odblokowany i odnowiony za 399 USD.

Personal Voice pozwala użytkownikom trenować iPhone'a, aby mówił za nich głosem podobnym do ich głosu. (Źródło: Apple)
Personal Voice pozwala użytkownikom trenować iPhone'a, aby mówił za nich głosem podobnym do ich głosu. (Źródło: Apple)

Źródło(a)

Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2023 05 > Apple napina mięśnie sztucznej inteligencji dzięki nowym funkcjom dostępności, które pojawią się w iOS 17
Sanjiv Sathiah, 2023-05-18 (Update: 2023-05-18)