4.9 C
Flensburg
Dienstag, April 16, 2024

Apple will Nutzer um Erlaubnis bei Siri-Aufnahmen bitten

Apple will als erster Anbieter von Sprachassistenten die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter fragen.

Apple will Nutzer um Erlaubnis bei Siri-Aufnahmen bitten
Apple wird als erster Anbieter von Sprachassistenten die Nutzer ab Herbst ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter fragen. Der iPhone-Konzern hatte diesen Schritt bereits Anfang des Monats in Aussicht gestellt, nachdem das Bekanntwerden der Praxis massive Kritik ausgelöst hatte. Außerdem wird Apple von Unterhaltungen der Nutzer mit der Sprachassistentin Siri keine Aufzeichnungen mehr langfristig speichern. Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, in denen die Sprachassistenten den Befehl nicht verstanden, die falsche Erkennung von Aktivierungswörtern sowie den Umgang mit neuen Sprachen und Dialekten.

Die Anbieter betonen, dass die Aufnahmen davor anonymisiert würden. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten. Google und Apple setzten die Auswertung durch Menschen vor einigen Wochen aus, Amazon gab Nutzer die Möglichkeit, die Nutzung von Mitschnitten zur Verbesserung des Dienstes abzulehnen. Der Fokus auf Siri war durch einen Bericht der Zeitung «Guardian» Ende Juli gelenkt worden. Der Mitarbeiter eines Apple-Dienstleisters erzählte, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er. Zu den nun angekündigten Änderungen gehört, dass die ausgewählten Mitschnitte nur noch von Apple-Mitarbeitern und nicht mehr bei externen Dienstleistern angehört werden.

Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte «Hey, Siri» gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen. Nach früheren Angaben von Apple wurde weniger als ein Prozent der Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen ausgewertet. Laut den Angaben in dem Sicherheitspapier für Entwickler konnten Mitschnitte bisher bis zu zwei Jahre lang für die Verbesserung des Dienstes verwendet werden, dabei wurde nach sechs Monaten eine Kopie ohne persönliche Informationen abgespeichert. Die Ankündigung von Apple deckt sich weitgehend mit den Forderungen auch von deutschen Datenschützern, die unter anderem verlangen, dass die Nutzer explizit um eine Erlaubnis zur Auswertung von Mitschnitten durch Menschen gefragt werden müssten. (dpa)

[td_block_15 image_align="center" meta_info_align="bottom" color_overlay="eyJ0eXBlIjoiZ3JhZGllbnQiLCJjb2xvcjEiOiJyZ2JhKDAsMCwwLDApIiwiY29sb3IyIjoicmdiYSgwLDAsMCwwLjcpIiwibWl4ZWRDb2xvcnMiOlt7ImNvbG9yIjoicmdiYSgwLDAsMCwwLjMpIiwicGVyY2VudGFnZSI6MzV9LHsiY29sb3IiOiJyZ2JhKDAsMCwwLDApIiwicGVyY2VudGFnZSI6NTB9XSwiY3NzIjoiYmFja2dyb3VuZDogLXdlYmtpdC1saW5lYXItZ3JhZGllbnQoMGRlZyxyZ2JhKDAsMCwwLDAuNykscmdiYSgwLDAsMCwwLjMpIDM1JSxyZ2JhKDAsMCwwLDApIDUwJSxyZ2JhKDAsMCwwLDApKTtiYWNrZ3JvdW5kOiBsaW5lYXItZ3JhZGllbnQoMGRlZyxyZ2JhKDAsMCwwLDAuNykscmdiYSgwLDAsMCwwLjMpIDM1JSxyZ2JhKDAsMCwwLDApIDUwJSxyZ2JhKDAsMCwwLDApKTsiLCJjc3NQYXJhbXMiOiIwZGVnLHJnYmEoMCwwLDAsMC43KSxyZ2JhKDAsMCwwLDAuMykgMzUlLHJnYmEoMCwwLDAsMCkgNTAlLHJnYmEoMCwwLDAsMCkifQ==" image_margin="0" modules_on_row="33.33333333%" columns="33.33333333%" meta_info_align1="image" limit="3" modules_category="above" show_author2="none" show_date2="none" show_review2="none" show_com2="none" show_excerpt2="none" show_excerpt1="none" show_com1="none" show_review1="none" show_date1="none" show_author1="none" meta_info_horiz1="content-horiz-center" modules_space1="eyJhbGwiOiIwIiwicGhvbmUiOiIzIn0=" columns_gap="eyJhbGwiOiI1IiwicG9ydHJhaXQiOiIzIiwibGFuZHNjYXBlIjoiNCIsInBob25lIjoiMCJ9" image_height1="eyJhbGwiOiIxMjAiLCJwaG9uZSI6IjExMCJ9" meta_padding1="eyJhbGwiOiIxNXB4IDEwcHgiLCJwb3J0cmFpdCI6IjEwcHggNXB4IiwibGFuZHNjYXBlIjoiMTJweCA4cHgifQ==" art_title1="eyJhbGwiOiIxMHB4IDAgMCAwIiwicG9ydHJhaXQiOiI2cHggMCAwIDAiLCJsYW5kc2NhcGUiOiI4cHggMCAwIDAifQ==" cat_bg="rgba(255,255,255,0)" cat_bg_hover="rgba(255,255,255,0)" title_txt="#ffffff" all_underline_color1="" f_title1_font_family="712" f_title1_font_line_height="1.2" f_title1_font_size="eyJhbGwiOiIxNSIsInBvcnRyYWl0IjoiMTEiLCJwaG9uZSI6IjE3In0=" f_title1_font_weight="500" f_title1_font_transform="" f_cat1_font_transform="uppercase" f_cat1_font_size="eyJhbGwiOiIxMSIsInBob25lIjoiMTMifQ==" f_cat1_font_weight="500" f_cat1_font_family="712" modules_category_padding1="0" category_id="_current_cat" ajax_pagination="" f_more_font_family="" f_more_font_transform="" f_more_font_weight="" sort="random_posts" tdc_css="eyJhbGwiOnsiZGlzcGxheSI6IiJ9LCJwb3J0cmFpdCI6eyJkaXNwbGF5IjoiIn0sInBvcnRyYWl0X21heF93aWR0aCI6MTAxOCwicG9ydHJhaXRfbWluX3dpZHRoIjo3NjgsInBob25lIjp7Im1hcmdpbi1ib3R0b20iOiI0MCIsImRpc3BsYXkiOiIifSwicGhvbmVfbWF4X3dpZHRoIjo3Njd9" custom_title="Verwandte Artikel" block_template_id="td_block_template_8" image_size="" cat_txt="#ffffff" border_color="#85c442" f_header_font_family="712" f_header_font_size="eyJhbGwiOiIxNyIsInBvcnRyYWl0IjoiMTUifQ==" f_header_font_transform="uppercase" f_header_font_weight="500" mix_type_h="color" mix_color_h="rgba(112,204,63,0.3)" pag_h_bg="#85c442" pag_h_border="#85c442" td_ajax_filter_type=""]
Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments