Kilka dni temu Apple oficjalnie ogłosiło pierwsze nowe funkcje iOS 19 i innych systemów, których premiera odbędzie się już za trzy tygodnie na WWDC 2025. Są to przede wszystkim ułatwienia dostępu, które – zdaniem Tima Cooka – “są częścią DNA firmy Apple”.
Poniżej znajdziecie pełną listę 6 nowych funkcji i 13 udoskonaleń dotychczasowych funkcjonalności.
“Accessibility Nutrition Labels” to nowa sekcja prezentująca ułatwienia dostępu w aplikacjach i grach w App Store.
Dzięki nowym etykietom użytkownik jeszcze przed pobraniem aplikacji dowie się, czy będzie ona dla nich dostępna, a programiści zyskają możliwość poinformowania o działających w aplikacji funkcjach oraz ich obsłudze.
Będzie to dotyczyło między innymi takich funkcjonalności, jak:
Wprowadzona w 2016 roku na iPhone’a i iPada funkcja “Lupa” daje osobom niewidomym lub niedowidzącym narzędzia do powiększania, odczytywania tekstu i wykrywania znajdujących się w pobliżu obiektów.
W tym roku Lupa zadebiutuje na Macu. Aplikacja “Lupa na Maca” łączy się z aparatem w telefonie użytkownika, przybliżając przedmioty z otoczenia, np. ekran czy tablicę. Lupa współpracuje z kamerą Continuity iPhone’a oraz kamerami podłączonymi przez port USB, a dzięki funkcji “Widok blatu” pomaga w odczytywaniu dokumentów.
Użytkownicy korzystający z kilku aktywnych okien mogą pracować wielozadaniowo, na przykład wyświetlać prezentację na kamerze internetowej i jednocześnie śledzić tekst w książce dzięki funkcji Widok blatu.
Co więcej, Lupa na Maca została zintegrowana z inną funkcją dostępu, Accessibility Reader, która przetwarza tekst z fizycznego otoczenia użytkownika na specjalny, dający się odczytać format.
Funkcja Braille Access zmienia iPhone’a, iPada, Maca i Apple Vision Pro w pełni wyposażony notatnik brajlowski, całkowicie zintegrowany z ekosystemem Apple.
Dzięki wbudowanej funkcji uruchamiania aplikacji użytkownicy będą mogli łatwo otworzyć dowolną aplikację, wprowadzać pismo Braille’a za pomocą funkcji Wejście ekranu Braille’a lub podłączonego monitora brajlowskiego.
Braille Access daje też możliwość szybkiego robienia notatek pismem Braille’a oraz wykonywania obliczeń za pomocą Nemeth Braille, czyli kodu brajlowskiego często używanego podczas lekcji matematyki czy przyrody.
Do tego zintegrowana funkcja Napisy na żywo umożliwia transkrypcję rozmów w czasie rzeczywistym bezpośrednio na monitorze brajlowskim.
Accessibility Reader to nowy, dostępny w całym systemie (na iPhonie, iPadzie, Macu i Apple Vision Pro) tryb odczytu, ułatwiający czytanie osobom z różnymi niepełnosprawnościami, jak dysleksja czy niedowidzenie.
Daje użytkownikom nowe sposoby dostosowywania tekstu i skupiania się na treściach, które chcą przeczytać, z szerokimi opcjami czcionki, koloru i odstępów, a także obsługą treści mówionych.
Rozwiązanie Accessibility Reader można uruchomić w dowolnej aplikacji. Jest ono również zintegrowane z aplikacją Lupa dla iOS, iPadOS i macOS, pozwalając użytkownikom na odczytywanie tekstu z fizycznego otoczenia, na przykład książek czy menu.
Niesłyszący lub niedosłyszący użytkownicy Apple Watcha będą mogli sterować na nim funkcją Live Listen, wzbogaconą o wiele nowych opcji, w tym Napisy na żywo w czasie rzeczywistym.
Live Listen zmienia iPhone’a w zdalny mikrofon, umożliwiając strumieniowane treści bezpośrednio do AirPodsów, aparatu słuchowego (z certyfikatem Made for iPhone) lub słuchawek Beats.
Po rozpoczęciu sesji na iPhonie, użytkownicy mogą za pomocą funkcji Napisy na żywo jednocześnie słuchać odtwarzanych na nim materiałów audio i czytać ich transkrypcję na Apple Watch sparowanym z iPhonem.
Apple Watch staje się pilotem, który pozwala włączyć lub wyłączyć sesję Live Listen bądź cofnąć się do momentu, w którym użytkownikowi coś uciekło.
Użytkownicy Apple Watch mogą sterować sesjami Live Listen z odległości, zatem bez konieczności wstawania podczas spotkania czy lekcji.
Z funkcji Live Listen można korzystać razem z rozwiązaniami wspierającymi zdrowie słuchu dostępnymi w AirPods Pro 2, w tym funkcją aparatu słuchowego jakości klinicznej.
Nowa wersja visionOS poszerzy dotychczasowe ułatwienia dostępu dla użytkowników niewidomych lub niedowidzących za pośrednictwem zaawansowanego systemu kamer w goglach Apple Vision Pro.
Aktualizacje funkcji Zoom pozwolą użytkownikom powiększyć wszystko w zasięgu ich wzroku – łącznie z elementami otoczenia – za pomocą kamery głównej.
Dzięki wewnętrznym algorytmom uczenia maszynowego funkcja “Rozpoznawanie na żywo” będzie wspierać osoby korzystające z rozwiązania VoiceOver poprzez opisywanie na głos ich otoczenia, odczytywanie dokumentów, wyszukiwanie przedmiotów i wiele innych czynności.
Deweloperzy rozwijający funkcje dostępu będą mogli w swoich zatwierdzonych aplikacjach skorzystać z nowego interfejsu API dającego dostęp do kamery głównej.
Użytkownicy zyskają w ten sposób więcej sposobów na poznawanie otaczającego ich świata bez użycia rąk, np. poprzez bieżącą, indywidualną pomoc w rozpoznawaniu przedmiotów, na przykład w aplikacji Be My Eyes.
Wprowadzone w ramach tej aktualizacji udoskonalenia, takie jak nowy licznik czasu zatrzymania, mniejsza liczba czynności podczas pisania przy użyciu przełączników czy obsługa funkcji QuickPath dla iPhone’a i Vision Pro, sprawiają, że pisanie na klawiaturze ze Śledzeniem oczu lub Sterowaniem przełącznikami staje się na iPhonie, iPadzie i Apple Vision Pro jeszcze prostsze.
Konferencja WWDC 2025 rozpocznie się już 9 czerwca. Spodziewamy się premiery:
Na razie nie wiadomo, czy podczas WWDC 2025 Apple zaprezentuje również nowe urządzenia.
Wszystko, co do tej pory wiemy o najważniejszym z nowych systemów – iOS 19 – znajdziecie tutaj.