XAI, 설명 가능한 AI 책 / 비제이퍼블릭 > 도서

본문 바로가기

도서

XAI, 설명 가능한 AI 책 / 비제이퍼블릭

땅끝
2023-03-21 06:56 406 0

본문

XAI, 설명 가능한 AI
9791165921644.jpg


도서명 : XAI, 설명 가능한 AI
저자/출판사 : 오오쓰보,나오키,나카에,도시히로,후카사와,유타,도요카, 비제이퍼블릭
쪽수 : 284쪽
출판일 : 2022-11-24
ISBN : 9791165921644
정가 : 27000

제Ⅰ부 과제 설정

제1장 AI에게 ‘설명’이 필요한 이유
1.1 AI 보급과 새로운 요구 사항
1.2 AI의 공평성ㆍ책임성ㆍ투명성
1.2.1 AI의 공평성(Fairness)
1.2.2 AI의 책임성(Accountability)
1.2.3 AI의 투명성(Transparency)
1.3 AI의 설명 가능성
1.3.1 설명 가능성이 높은 알고리즘
1.3.2 설명 가능성이 낮은 알고리즘
1.4 AI를 업무에 적용할 때 AI 설명이 필요한 이유
이번 장을 정리하며

제Ⅱ부 기초 지식

제2장 ‘설명 가능한 AI’의 개요
2.1 XAI란 무엇인가?
2.1.1 XAI의 목적
2.1.2 ‘설명 가능한 AI’와 ‘해석 가능한 AI’
Column XAI 관련 용어 의미
2.2 XAI 동향
2.2.1 XAI에 대한 왕성한 연구 활동
2.2.2 XAI 구현
2.3 ‘전역 설명’과 ‘국소 설명'
2.3.1 전역 설명(Global Explanations)
2.3.2 국소 설명(Local Explanations)
2.4 설명 방법의 차이점
2.5 모델 의존성
2.5.1 모델 의존형 XAI
2.5.2 모델 불문형 XAI
이번 장을 정리하며

제3장 XAI 활용 방법
3.1 설명 분류별 활용 방법
3.1.1 국소 설명 활용 방법
3.1.2 전역 설명 활용 방법
3.2 국소 설명 활용 방법
3.2.1 신고 내용의 타당성 검증
3.2.2 의도와 다른 학습 재검토
3.3 전역 설명 활용 방법
3.3.1 AI 모델의 개선 운용
3.3.2 적대적 공격 검증
이번 장을 정리하며

제4장 다양한 XAI 기술
4.1 다양한 설명 방법
4.1.1 XAI 라인업
4.1.2 이 책의 해설 내용
4.2 기술 소개 ① LIME
4.2.1 개념과 동작 원리
4.2.2 데이터 종류별 동작 원리
4.2.3 LIME의 특징과 주의점
4.2.4 LIME 정리
4.3 기술 소개 ② SHAP
4.3.1 섀플리 값이란
4.3.2 SHAP의 개념
4.3.3 SHAP 계산 알고리즘
4.3.4 SHAP 정리
4.4 소개 기술 ③ Permutation Importance
4.4.1 Permutation Importance의 개념
4.4.2 Permutation Importance의 동작 원리
4.4.3 Permutation Importance 정리
4.5 소개 기술 ④ Partial Dependence Plot
4.5.1 PDP / ICE의 개념
4.5.2 PDP / ICE의 특장점과 주의점
4.5.3 PDP / ICE 정리
4.6 소개 기술 ⑤ Tree Surrogate
4.6.1 Tree Surrogate의 개념
4.6.2 의사결정 트리 대리 모델의 특ㆍ장점과 주의점
4.6.3 의사결정 트리 대리 모델 정리
4.7 소개 기술 ⑥ CAM / Grad-CAM
4.7.1 CAM의 개념과 동작 원리
4.7.2 Grad-CAM의 개념과 동작 원리
4.7.3 관련 기술ㆍ파생 기술
4.7.4 CAM / Grad-CAM 대응 모델
4.7.5 CAM과 Grad-CAM 정리
4.8 소개 기술 ⑦ Integrated Gradients
4.8.1 Integrated Gradients의 개념과 동작 원리
4.8.2 Integrated Gradients 대응 모델
4.8.3 Integrated Gradients 정리
4.9 소개 기술 ⑧ Attention
4.9.1 Attention의 개념과 동작 원리
4.9.2 Attention 대응 모델
4.9.3 Attention 정리
이번 장을 정리하며

제5장 XAI 라이브러리 평가ㆍ선정
5.1 XAI를 평가하는 기본적인 관점
5.1.1 사용할 XAI를 결정하기 위한 관점
5.1.2 범분야(Cross-Cutting) 평가 관점
5.2 XAI 선정 방법
5.2.1 XAI 선정 절차(Flow)
5.2.2 목적ㆍ최소 조건과 부합하는가?
5.2.3 중요 조건과 부합하는가?
5.2.4 사용자가 만족할 수 있는가?
5.3 일관된 관점
5.3.1 평가 관점 ① ‘충실도’
5.3.2 평가 관점 ② ‘신뢰성’
5.3.3 평가 관점 ③ ‘만족도’
5.3.4 평가 관점 ④ ‘Mental Model’
5.3.5 평가 관점 ⑤ ‘실작업 친화성’
이번 장을 정리하며

제Ⅲ부 실천 매뉴얼

제6장 LIME을 활용한 표 형식 데이터 국소 설명
6.1 검증 목적
6.2 라이브러리 준비
6.3 검증 대상 데이터
6.3.1 데이터 개요
6.3.2 데이터 이해
6.4 모델 학습
6.4.1 전처리
6.4.2 모델 학습
6.5 LIME을 활용한 예측 결과의 설명
6.5.1 LIME 사용 준비
6.5.2 주요 파라미터
6.5.3 LIME 실행
6.5.4 다른 데이터에 대한 설명
Column 이해 가능한 설명인가
6.6 국소 설명의 수준을 조정하는 kernal width
검증 결과 정리

제7장 LIME과 Grad-CAM을 활용한 이미지 데이터의 국소 설명
7.1 검증 목적
7.2 라이브러리 준비
7.3 검증 대상 데이터
7.4 AI 모델 준비와 예측
7.5 LIME을 활용한 설명
7.5.1 LIME을 활용한 AI 모델 설명
7.5.2 LIME 설명 가시화와 해석
7.5.3 LIME을 활용한 설명 정리
7.6 Grad-CAM을 활용한 설명
7.6.1 Grad-CAM을 활용한 AI 모델 설명
7.6.2 Grad-CAM 설명 가시화와 해석
7.6.3 Grad-CAM을 활용한 설명 정리
검증 결과 정리

제8장 LIME과 Integrated Gradients 텍스트 분류의 국소 설명
8.1 검증 목적
8.2 라이브러리 준비
8.3 검증 대상 데이터
8.4 모델 학습과 예측
8.5 LIME을 활용한 모델 해석
8.6 Integrated Gradients를 활용한 방법
검증 결과 정리
Column Attention 가시화

제9장 SHAP의 국소적ㆍ전역적 설명과 대응
9.1 설명 준비
9.1.1 환경 구축
9.1.2 데이터 세트 준비
9.1.3 모델 준비
9.2 SHAP 값 산출과 이해
Column LightGBM의 SHAP 연계 기능
9.3 SHAP 값 가시화
9.3.1 개별 예측에 대한 특징량의 영향
9.3.2 데이터 세트 전체에 대한 특징량 반영 방법
Column 특징량 중요도 상호 비교?
9.3.3 SHAP 값과 특징량의 상관 관계 가시화
Column 변수 사이의 상호 작용을 활용한 상세 관찰 방법: SHAP Interaction aVlues
9.4 SHAP 값의 추가적인 활용
9.4.1 SHAP 값의 클러스터링을 활용한 데이터 분류
9.4.2 차원 삭제에 따른 특징량의 조합 추출
9.4.3 유사 데이터 검색과 신규성의 산출
검증 결과 정리

제10장 ELI5, PDPbix, Skater를 활용한 전역 설명
10.1 다양한 전역 설명 XAI
10.1.1 모델 설명을 수행하는 라이브러리
10.1.2 개발 성숙도
10.2 사전 준비
10.2.1 XAI 실행을 위한 과정
10.2.2 파이썬 환경 구축
10.2.3 XAI 라이브러리 설치
10.3 ELI5(Permutation Importance)
10.3.1 ELI5는 어떠한 기술인가?
10.3.2 ELI5 실행
10.3.3 ELI5 평가
10.4 PDPbox(PDPㆍICE)
10.4.1 PDPbox는 어떠한 기술인가?
10.4.2 PDPbox 실행
10.4.3 PDPbox 평가
10.5 Skater(Tree Surrogate)
10.5.1 Skater는 어떠한 기술인가?
10.5.2 Skater 실행
10.5.3 Skater 평가
검증 성과 정리

제11장 LIME, SHAP의 한계와 해결책
11.1 XAI 방법의 한계
11.2 LIME 결과 안정성
11.3 SHAP 계산 시간 대처 방안
11.4 스파스(Sparse) 데이터 분석
이번 장을 정리하며

제Ⅳ부 장래 전망

제12장 업무에서 필요한 설명 능력
12.1 비즈니스상의 설명
12.1.1 AI 활용 상황
12.1.2 설명이 필요한 비즈니스 상황
12.1.3 비즈니스상 필요한 설명 분류
12.2 정밀도와 설명 능력의 Trade Off
12.2.1 복잡한 사상의 설명은 근본적으로 복잡하다
12.2.2 XAI에 과도한 기대는 금물
12.3 설득력 키우기
12.3.1 필요한 것은 ‘이해’가 아닌 ‘설득’?
12.3.2 왜 XAI의 설득에 선형회귀가 사용되는가?
12.3.3 XAI를 사용해 설득할 수 있는가?
이번 장을 정리하며

제13장 XAI의 전망
13.1 사용자에게 XAI란
13.1.1 XAI의 도달점
13.1.2 XAI는 사용자에게 도움이 되는가?
13.2 설득할 수 있는 설명을 위한 도전
13.2.1 설득력 부족에 대한 이유
13.2.2 지식 활용 방침
Column 지식 클럽과 LOD
13.3 XAI의 이상적인 모습
13.3.1 분야를 넘나드는 발전 방향 기대
13.3.2 XAI가 갖추어야 할 모습

부록 - 환경 구축 방법
A.1 파이썬 환경
A.2 Jupyter notebook 환경 구축




image.jpg





image1.jpg




댓글목록0

등록된 댓글이 없습니다.
게시판 전체검색