인공 지능을 능가하는 방법-인간 대 기계.
AI 컴퓨터 시스템 자율 주행 차량에서 의사의 진단 및 자율 수색 및 구조 로봇 지원에 이르기까지 우리 삶의 여러 영역으로 길을 찾고 있으며 큰 잠재력을 제공합니다.
그러나, 특히 "신경망"으로 알려진 AI 분야에서 해결되지 않은 주요 문제 중 하나는 과학자들이 종종 일이 잘못되는 이유를 설명 할 수 없다는 것입니다. 이는 AI 시스템 내의 의사 결정 과정에 대한 이해 부족 때문입니다. 이 문제를 "블랙 박스"문제라고합니다.
누가 더 똑똑합니까?
리버풀 대학도 참여하고있는 랭커스터 대학의 15 개월간의 새로운 연구 프로젝트는 블랙 박스 문제의 비밀을 밝히고 "에 대한 새로운 방법을 찾는 것을 목표로합니다.깊은 학습"투명하고 설명 가능한 결정을 내리는 AI 컴퓨터 모델을 찾으십시오.
프로젝트 "책임감 있고 설명 가능한 자율 로봇 학습 시스템을 향하여"인공 지능 알고리즘을 개발하기위한 일련의 보안 감사 및 테스트 절차를 개발할 것입니다. 이는 시스템에서 내린 결정이 강력하고 설명 가능한지 확인하는 데 도움이 될 것입니다.
이미지 출처 : Pixabay
트레이닝
연구자들은 "역 훈련"이라는 기술을 사용할 것입니다. 행동을 취하는 방법을 배우는 주어진 상황에서 시스템을 제시하는 것으로 구성됩니다. B. 물체 감지 및 들어 올리기. 그런 다음 연구원은 색상, 모양, 환경과 같은 시나리오의 다양한 요소를 변경하고 시행 착오를 통해 시스템이 학습하는 방식을 관찰합니다. 연구자들은 이러한 관찰이 시스템이 학습하는 방법을 더 잘 이해하고 의사 결정 과정 부여.
결정을 이해하고 예측할 수있는 신경망으로 시스템을 만드는 방법을 개발함으로써 산업의 차량 및 로봇과 같은 안전이 중요한 영역에서 자율 시스템을 잠금 해제하는 데 연구가 핵심이 될 것입니다.
Dr. Lancaster University의 컴퓨팅 및 통신 학교 선임 강사이자이 프로젝트의 수석 연구원 인 Wenjie Ruan은 다음과 같이 말했습니다. 깊은 학습 가장 주목할만한 인공 지능 기술 중 하나가 많은 응용 프로그램에서 크게 성공했기 때문에 불투명 한 의사 결정 메커니즘 및 적대적 공격에 대한 취약성을 포함하여 보안이 중요한 시스템에서 사용될 때 자체 문제가 있습니다. "이 프로젝트는 딥 러닝 기술과 안전에 중요한 시스템 간의 연구 격차를 좁힐 수있는 좋은 기회입니다.