一言でいうと
in-domainサンプルとOODサンプルの表現ギャップを最大化するDPNモデルのための新しい損失関数を提案.
論文リンク
https://papers.nips.cc/paper/2020/file/68d3743587f71fbaa5062152985aff40-Paper.pdf
著者/所属機関
Jay Nandy et al.
(National University of Singapore)
投稿日付(yyyy/MM/dd)
2020/12
概要
既存のDPNモデルの定式化では,複数のクラス間でデータの不確実性が高いin-domainサンプルと,OODサンプルとの間で区別のつかない表現になることが多い.
本研究では、in-domainサンプルとOODサンプルの表現ギャップを最大化するDPNモデルのための新しい損失関数を提案.

新規性・差分
- 予測の不確実性の原因を特定することで情報に基づいた方法での手動介入が可能になり,実世界での応用におけるAIシステムの信頼性を高めることができる.
手法



結果





コメント