Unijne regulacje w sprawie sztucznej inteligencji na ostatniej prostej. To b?dzie rewolucja na miar? RODO "Dodatkowo niedozwolona b?dzie tak?e identyfikacja biometryczna (np. poprzez rozpoznawanie twarzy) w czasie rzeczywistym w miejscach publicznych oraz, co do zasady, identyfikacja biometryczna ex post z wyj?tkami dotycz?cymi najpowa?niejszych przest?pstw i tylko za zgod? s?du. Podobnie niedopuszczalne ma by? tak?e profilowanie potencjalnych sprawców przest?pstw na podstawie danych o ich cechach, poprzednich przest?pstwach lub geolokalizacji. Zabronione maj? by? równie? systemy AI do rozpoznawania emocji, wykorzystywane w zak?adach pracy, szko?ach, przy zwalczaniu przest?pczo?ci, a tak?e pobieranie danych biometrycznych z mediów spo?eczno?ciowych lub nagra? z monitoringu, w celu tworzenia baz danych rozpoznawania twarzy."
Przed publikacją warto NIECO zgłębić temat. Problem automatycznej analizy biometrycznej dotyczy kamer które są "nieautoryzowane" do konkretnego celu. Przetwarzanie biometryczne musi mieć konkretny cel, dlatego służby cały czas to robią korzystając z różnych kamer (zasadniczo nie mają własnych...). Bramki biometryczne mają się dobrze m.in. na lotniskach czy w obiektach tzw. infrastruktury krytycznej. Zakaz automatycznego przetwarzania dotyczy de facto zakazu obejmującego DALSZE postępowanie z danymi biomedycznymi czyli np. automatyczną odmowę dostępu itp. - tutaj wymagana jest obecność operatora (teoretycznie) weryfikującego decyzję algorytmu - i tyle. Bramki są instalowane na zamówienie i pod takie zamówienia opracowane są nie tylko polityki ochrony danych, ale także modele przetwarzania i zakresy działania algorytmu (przykładowo w celu ochrony infrastruktury krytycznej).