Trustworthy Machine(신뢰할 수 있는 기계)란 무엇입니까?
Trustworthy Machine 신뢰할 수 있는 기계 - Privacy and transparency are two key foundations of trustworthy machine learning. [1] Some common examples include how coreference resolution systems in NLU are often not all gender inclusive, discrepancies in the measurement of how robust and trustworthy machine predictions are in domains where the selective labels problem is prevalent, and discriminatory determination of pain or care levels of people belonging to different demographics in health science applications. [2] In this work, we will cover the state-of-the-art in trustworthy machine learning, and then cover some interesting future trends. [3] Model explainability is essential for the creation of trustworthy Machine Learning models in healthcare. [4] Trustworthy machine learning requires incentives, guarantees of data quality, and information privacy. [5] PAL – Predictive Analytics Lab, University of Sussex, Brighton, United Kingdom, BCAM Severo Ochoa Strategic Lab on Trustworthy Machine Learning, Bilbao, Spain, GLAM – Group on Language, Audio, & Music, Imperial College London, London, United Kingdom, EIHW – Chair of Embedded Intelligence for Health Care and Wellbeing, University of Augsburg, Augsburg, Germany, Gradient Institute, Sydney, NSW, Australia. [6] To overcome this challenge, in this research topic “Safe and Trustworthy Machine Learning”, a wide range of solutions are contributed as potentially viable solutions to address trust, safety and security issues faced by ML methods. [7] Both uncertainty estimation and interpretability are important factors for trustworthy machine learning systems. [8] Can machine learning algorithms be trusted to have access to individuals’ sensitive data? Can they be robust against noisy or adversarially perturbed data? Can we reliably interpret their learning process, and explain their predictions? In this talk, I will go over the challenges of building trustworthy machine learning algorithms in centralized and distributed (federated) settings, and will discuss the inter-relation between privacy, robustness, and interpretability. [9] Trustworthy Machine Learning (ML) is one of significant challenges of “black-box” ML for its wide impact on practical applications. [10]개인 정보 보호와 투명성은 신뢰할 수 있는 머신 러닝의 두 가지 핵심 기반입니다. [1] 몇 가지 일반적인 예에는 NLU의 상호참조 해석 시스템이 종종 모든 성별을 포괄하지 않는 경우가 많고, 선택적 레이블 문제가 만연한 영역에서 기계 예측이 얼마나 강력하고 신뢰할 수 있는지 측정하는 데 불일치가 있으며, 소속된 사람들의 고통이나 보살핌 수준에 대한 차별적 결정이 있습니다. 건강 과학 응용 프로그램의 다양한 인구 통계에. [2] 이 작업에서 우리는 신뢰할 수 있는 기계 학습의 최신 기술을 다룬 다음 몇 가지 흥미로운 미래 트렌드를 다룰 것입니다. [3] 모델 설명 가능성은 의료 분야에서 신뢰할 수 있는 기계 학습 모델을 생성하는 데 필수적입니다. [4] 신뢰할 수 있는 머신 러닝에는 인센티브, 데이터 품질 보장 및 정보 프라이버시가 필요합니다. [5] PAL – 예측 분석 연구소, 영국 브라이튼, 영국 서식스 대학교, BCAM Severo Ochoa 신뢰할 수 있는 기계 학습 전략 연구소, 스페인 빌바오, GLAM – 언어, 오디오 및 음악 그룹 그룹, Imperial College London, 영국 런던, EIHW – 건강 관리 및 웰빙을 위한 임베디드 인텔리전스 의장, 아우크스부르크 대학, 독일 아우크스부르크, Gradient Institute, 시드니, NSW, 호주. [6] 이 문제를 극복하기 위해 이 연구 주제 "안전하고 신뢰할 수 있는 기계 학습"에서 ML 방법이 직면한 신뢰, 안전 및 보안 문제를 해결하기 위해 잠재적으로 실행 가능한 솔루션으로 다양한 솔루션이 제공됩니다. [7] 불확실성 추정과 해석 가능성은 모두 신뢰할 수 있는 기계 학습 시스템의 중요한 요소입니다. [8] 기계 학습 알고리즘이 개인의 민감한 데이터에 액세스할 수 있다고 신뢰할 수 있습니까? 잡음이 있거나 교란된 데이터에 대해 견고할 수 있습니까? 그들의 학습 과정을 안정적으로 해석하고 예측을 설명할 수 있습니까? 이 강연에서 저는 중앙 집중식 및 분산형(연합된) 환경에서 신뢰할 수 있는 기계 학습 알고리즘을 구축하는 문제를 살펴보고 개인 정보 보호, 견고성 및 해석 가능성 간의 상호 관계에 대해 논의할 것입니다. [9] 신뢰할 수 있는 머신 러닝(ML)은 실제 응용 프로그램에 광범위한 영향을 미치는 "블랙박스" ML의 중요한 과제 중 하나입니다. [10]
trustworthy machine learning 신뢰할 수 있는 머신 러닝
Privacy and transparency are two key foundations of trustworthy machine learning. [1] In this work, we will cover the state-of-the-art in trustworthy machine learning, and then cover some interesting future trends. [2] Model explainability is essential for the creation of trustworthy Machine Learning models in healthcare. [3] Trustworthy machine learning requires incentives, guarantees of data quality, and information privacy. [4] PAL – Predictive Analytics Lab, University of Sussex, Brighton, United Kingdom, BCAM Severo Ochoa Strategic Lab on Trustworthy Machine Learning, Bilbao, Spain, GLAM – Group on Language, Audio, & Music, Imperial College London, London, United Kingdom, EIHW – Chair of Embedded Intelligence for Health Care and Wellbeing, University of Augsburg, Augsburg, Germany, Gradient Institute, Sydney, NSW, Australia. [5] To overcome this challenge, in this research topic “Safe and Trustworthy Machine Learning”, a wide range of solutions are contributed as potentially viable solutions to address trust, safety and security issues faced by ML methods. [6] Both uncertainty estimation and interpretability are important factors for trustworthy machine learning systems. [7] Can machine learning algorithms be trusted to have access to individuals’ sensitive data? Can they be robust against noisy or adversarially perturbed data? Can we reliably interpret their learning process, and explain their predictions? In this talk, I will go over the challenges of building trustworthy machine learning algorithms in centralized and distributed (federated) settings, and will discuss the inter-relation between privacy, robustness, and interpretability. [8] Trustworthy Machine Learning (ML) is one of significant challenges of “black-box” ML for its wide impact on practical applications. [9]개인 정보 보호와 투명성은 신뢰할 수 있는 머신 러닝의 두 가지 핵심 기반입니다. [1] 이 작업에서 우리는 신뢰할 수 있는 기계 학습의 최신 기술을 다룬 다음 몇 가지 흥미로운 미래 트렌드를 다룰 것입니다. [2] 모델 설명 가능성은 의료 분야에서 신뢰할 수 있는 기계 학습 모델을 생성하는 데 필수적입니다. [3] 신뢰할 수 있는 머신 러닝에는 인센티브, 데이터 품질 보장 및 정보 프라이버시가 필요합니다. [4] PAL – 예측 분석 연구소, 영국 브라이튼, 영국 서식스 대학교, BCAM Severo Ochoa 신뢰할 수 있는 기계 학습 전략 연구소, 스페인 빌바오, GLAM – 언어, 오디오 및 음악 그룹 그룹, Imperial College London, 영국 런던, EIHW – 건강 관리 및 웰빙을 위한 임베디드 인텔리전스 의장, 아우크스부르크 대학, 독일 아우크스부르크, Gradient Institute, 시드니, NSW, 호주. [5] 이 문제를 극복하기 위해 이 연구 주제 "안전하고 신뢰할 수 있는 기계 학습"에서 ML 방법이 직면한 신뢰, 안전 및 보안 문제를 해결하기 위해 잠재적으로 실행 가능한 솔루션으로 다양한 솔루션이 제공됩니다. [6] 불확실성 추정과 해석 가능성은 모두 신뢰할 수 있는 기계 학습 시스템의 중요한 요소입니다. [7] 기계 학습 알고리즘이 개인의 민감한 데이터에 액세스할 수 있다고 신뢰할 수 있습니까? 잡음이 있거나 교란된 데이터에 대해 견고할 수 있습니까? 그들의 학습 과정을 안정적으로 해석하고 예측을 설명할 수 있습니까? 이 강연에서 저는 중앙 집중식 및 분산형(연합된) 환경에서 신뢰할 수 있는 기계 학습 알고리즘을 구축하는 문제를 살펴보고 개인 정보 보호, 견고성 및 해석 가능성 간의 상호 관계에 대해 논의할 것입니다. [8] 신뢰할 수 있는 머신 러닝(ML)은 실제 응용 프로그램에 광범위한 영향을 미치는 "블랙박스" ML의 중요한 과제 중 하나입니다. [9]