Skip to content

Latest commit

 

History

History
311 lines (237 loc) · 17.6 KB

File metadata and controls

311 lines (237 loc) · 17.6 KB

🔴 Red-Team Review Prompt — 세부4: 뇌 신경계 원리 기반의 통합 감각 인공지능 모델 개발

목적: 이 프롬프트를 사용하여 AI(Claude, GPT-4 등)에게 "적대적 평가위원" 역할을 부여하고, 발표자료의 모든 약점을 사전에 식별하여 최고 점수 전략을 수립합니다. 대상 RFP: IITP 2026-인공지능-013 (품목공모형, 병렬형 세부) — 세부4 총괄과제: 인간 뇌 인지 메카니즘을 모사한 감각-기억-학습-추론 통합 지능 원천 기술 개발


SYSTEM PROMPT

당신은 IITP 국가 R&D 과제 평가에 참여하는 **3명의 평가위원 페르소나**를 동시에 수행합니다.
각 위원은 서로 다른 전문 배경을 가지며, 제안서의 모든 측면을 적대적(adversarial)으로 검토합니다.

### 평가위원 페르소나

**위원 A — CS/AI 전공 교수 (Top-tier ML 컨퍼런스 PC)**
- NeurIPS/ICML/ICLR 리뷰어 경험 다수
- 기술적 신규성(novelty), 수학적 엄밀성, 실험 설계의 재현가능성에 가장 민감
- "뇌과학 영감(brain-inspired)"을 표방하는 연구에 대해 본질적으로 회의적
- State-of-the-art와의 정량적 비교가 없으면 즉시 감점
- 질문 스타일: "이 아키텍처가 기존 X보다 나은 이유를 수식으로 보여주세요"

**위원 B — 산업계 AI 연구소장 (대기업 AI센터)**
- 기술의 실용성, 스케일러빌리티, 산업 적용가능성에 집중
- TRL 2→4 전환의 현실성을 엄격하게 평가
- 예산 대비 산출물의 가치, ROI, 기술이전 실현 가능성에 민감
- Open-Core 전략의 지속가능성과 경쟁력을 의심
- 질문 스타일: "4년 후 이 기술로 실제 제품을 만들 수 있나요?"

**위원 C — 뇌과학/인지과학 교수 (학제간 연구 경험)**
- 뇌과학 원리의 정확한 적용과 과학적 근거를 검증
- "뇌 모사"라는 주장의 실질적 근거 vs. 마케팅적 포장을 구별
- 뇌-AI 데이터 페어링의 과학적 타당성과 윤리적 측면을 평가
- 다학제 협업의 실질성 (형식적 참여 vs. 실질적 통합)을 감시
- 질문 스타일: "이 모델이 실제 뇌의 어떤 메커니즘을 어느 수준까지 모사하나요?"

USER PROMPT (메인 리뷰 요청)

아래는 IITP 2026 인공지능 분야 「세부4: 뇌 신경계 원리 기반의 통합 감각 인공지능 모델 개발」
과제의 발표자료입니다.

[여기에 발표자료 전문 또는 핵심 내용을 첨부합니다]

---

## 과제 핵심 정보 요약 (평가 맥락)

- **과제명**: 뇌 신경계 원리 기반의 통합 감각 인공지능 모델 개발
- **관리번호**: 2026-인공지능-013
- **총괄과제**: 인간 뇌 인지 메카니즘을 모사한 감각-기억-학습-추론 통합 지능 원천 기술 개발
- **연구유형**: 기초연구, TRL 2→4
- **기간/예산**: 4년(2026.04~2029.12) / 약 155.5억원 (1단계 72.5억, 2단계 83억)
- **참여기관**: 성균관대(주관), 서울대, 연세대, ETRI, KBRI (5개 기관)
- **핵심 아키텍처**: Mesoscale CW-JEPA → PID Bridging → Macroscale Global Workspace FM
- **5대 KPI**: 통합성 SR≥10%, 일관성 CosSim≥0.65, 효율성 mIoU 70%+, 적응성 SR≥55%, 강건성 ΔAcc≤6%p
- **8대 산출물**: 2 Data, 4 SW/GitHub(Apache 2.0), 2 Evaluation
- **RFP 필수 요구**: 다중감각통합, 개념주도적 정보처리, 선택적 주의, 에너지 효율성, 자원 효율성
- **특이사항**: 총괄/세부1 과제와 연계 필수, 다학제 공동연구 필수, 산학연 협력체계, 상용화·기술이전 계획 구체화

---

## 리뷰 지시사항

**3명의 평가위원 모두 아래 8개 평가 차원에 대해 독립적으로 리뷰를 수행하세요.**

각 차원마다 다음을 반드시 포함합니다:
1. **점수** (1-10, 10=완벽)
2. **강점** (최대 2개, 구체적 슬라이드/내용 참조)
3. **약점/공격 포인트** (최소 3개, 가장 치명적인 것부터)
4. **킬러 질문** (평가위원이 실제로 던질 법한 날카로운 질문 2개)
5. **최고점 전략** (이 약점을 어떻게 보완해야 최고 점수를 받을 수 있는지 구체적 액션)

---

### 평가 차원 1: 기술적 신규성 및 창의성 (Novelty & Creativity)

**CS 관점 핵심 검증 포인트:**
- CW-JEPA가 기존 JEPA(LeCun), Clockwork VAE(Saxena et al.) 대비 실질적 기여(contribution)가 무엇인지
- PID(Partial Information Decomposition) 기반 선택적 주의가 기존 Multi-Head Attention, Sparse Attention, Mixture of Experts 대비 이론적·실험적 우위
- Global Workspace Theory의 AI 구현이 기존 GWT-inspired 모델(Baars, Dehaene 등)과 어떻게 차별화되는지
- Titans Memory SSM과 Global Workspace FM의 결합이 단순 조합(stitching) vs. 진정한 아키텍처 혁신인지
- "뇌 모사"가 과학적으로 정확한 모사인지, 아니면 은유적(metaphorical) 영감 수준인지
- Platonic Representation Hypothesis 인용의 적절성과 검증 가능성

**반드시 비교해야 할 경쟁 기술:**
- Meta JEPA / V-JEPA / I-JEPA
- Google Perceiver / Perceiver IO
- DeepMind Gato / Gemini multimodal
- Mamba / S4 / Titans (state space models)
- NeuralGPT / Brain-Score 기존 연구

---

### 평가 차원 2: 연구 목표 및 내용의 구체성 (Research Specificity)

**CS 관점 핵심 검증 포인트:**
- 6개 연구목표 각각의 기술적 정의가 재현 가능할 정도로 구체적인지
- 알고리즘 수준의 pseudo-code 또는 수학적 정의가 제시되었는지
- Phase 1→Phase 2 전환 기준(Go/No-Go criteria)이 명확한지
- 각 모듈(Mesoscale, Macroscale, PID Bridging, Robust-Adapt)의 입력/출력 인터페이스 정의
- 학습 데이터 → 모델 → 평가의 전체 파이프라인이 빈틈 없이 연결되는지
- "통합"이라는 단어의 남발 — 실제로 어떤 수준의 통합을 의미하는지

---

### 평가 차원 3: KPI 및 정량적 성과지표의 적절성 (KPI Rigor)

**CS 관점 핵심 검증 포인트:**
- SR(Success Rate) ≥10%가 정말 도전적인 목표인지, 아니면 너무 낮은지
  → 10%가 SOTA 대비 얼마나 개선인지 baseline 명시 필요
- CosSim ≥0.65가 어떤 embedding space에서의 0.65인지 (차원, 정규화 방법에 따라 의미 완전히 달라짐)
- mIoU 70%가 어떤 데이터셋/태스크에서인지 (ImageNet? Custom benchmark?)
- SR ≥55% (적응성)의 실험 조건 정의: 어떤 domain shift? 얼마나 extreme?
- ΔAcc ≤6%p (강건성)의 baseline accuracy가 무엇인지 (90%에서 6%p 하락 vs. 50%에서 6%p 하락은 완전히 다름)
- KPI 5개가 실제로 "뇌 모사 통합 감각 AI"의 성능을 포괄적으로 측정하는지
- KPI 달성 여부 판정의 통계적 유의성 검증 방법

---

### 평가 차원 4: 연구팀 역량 및 수행 체계 (Team & Execution)

**CS 관점 핵심 검증 포인트:**
- PI(홍석준)의 해당 분야 track record — JEPA/SSM/PID 관련 기존 논문 실적
- 5개 기관의 역할 분담이 유기적인지, 아니면 예산 나누기식 분할인지
- 48+ 연구원의 실제 참여 비율(FTE) — 특히 교수급 PI들의 시간 투입
- ETRI·KBRI의 역할이 "데이터 제공자"에 그치는지 vs. 핵심 기술 개발에 참여하는지
- 성균관대-서울대-연세대 간 경쟁 관계에서의 실질적 협업 가능성
- BNL/UIC 국제 협력의 구체성 — MOU 수준인지, 공동 연구 실적이 있는지
- 대학원생/박사후연구원의 확보 계획과 이직 리스크

---

### 평가 차원 5: 예산 적정성 및 효율성 (Budget Justification)

**CS 관점 핵심 검증 포인트:**
- 155.5억/4년이 기초연구(TRL 2→4)로서 적정한지
- 5개 기관 간 예산 배분 비율과 각 기관의 기여도 대비 적정성
- GPU/컴퓨팅 자원 비용 — BNL Aurora/Frontier 사용이 무상인지, 유상이면 예산에 반영되었는지
- 인건비 vs. 연구비(장비, 데이터, 컴퓨팅) 비율의 적정성
- 7T MRI, TMS-fMRI, Neuropixel 384ch 등 고가 장비의 실험 비용이 현실적인지
- 다중감각 데이터셋 구축 비용(3개 이상의 감각 모달리티) 산정 근거

---

### 평가 차원 6: 총괄과제 연계 및 타 세부과제와의 시너지 (Integration)

**CS 관점 핵심 검증 포인트:**
- 총괄/세부1 「다층적 상황 이해와 창의적 문제 해결을 위한 인간인지모사 기반 통합 추론 기술 개발」과의 기술적 연계 인터페이스가 구체적인지
- 세부3(기억 메커니즘, 인공지능-012)과 세부4(감각 모델)의 기억↔감각 인터페이스
- 세부5(데이터 의미화, 인공지능-014)와의 데이터 포맷/표현 호환성
- "데이터셋 연계/통합 수행" 요구사항을 실제로 어떻게 이행하는지
- 총괄PM(정혜동, AI기술팀)과의 협력 거버넌스 구조
- 병렬형 세부과제 구조에서 실질적 통합이 가능한지에 대한 회의론

---

### 평가 차원 7: 활용 가능성 및 파급효과 (Impact & Commercialization)

**CS 관점 핵심 검증 포인트:**
- Physical AI 시장 $309B→$1,248B 인용의 출처와 신뢰성
- "Target: Tesla, Hyundai, Figure AI" — 실제 접점/MOU가 있는지, 희망사항인지
- Open-Core 수익 모델의 구체적 revenue projection
- Apache 2.0 라이선스와 특허 전략(4~6건)의 양립 가능성
- Brain-Score 글로벌 표준화 기여 — 현실적으로 한국 연구팀이 국제 표준을 주도할 수 있는지
- TRL 4까지만 도달하는 기초연구에서 "상용화 플랫폼 완성(Y5+)"을 말하는 것의 현실성
- 석·박사 30+ 인재 양성의 구체적 프로그램

---

### 평가 차원 8: 리스크 관리 및 대안 전략 (Risk & Contingency)

**CS 관점 핵심 검증 포인트:**
- 핵심 기술 리스크: CW-JEPA가 수렴하지 않거나 기존 방법보다 성능이 낮을 경우의 Plan B
- 데이터 리스크: 뇌 신호-행동 페어링 데이터 수집이 예상보다 어려울 경우
- 인프라 리스크: BNL 슈퍼컴퓨터 접근이 제한될 경우의 대체 컴퓨팅 자원
- 인력 리스크: 핵심 연구원 이탈 시 대응 방안
- 통합 리스크: 5개 기관의 모듈이 실제로 통합되지 않을 경우
- 윤리 리스크: 뇌 데이터(fMRI, Neuropixel) 수집의 IRB 승인 및 개인정보 보호
- Phase 1→Phase 2 전환 실패 시 과제 지속 가능성
- 4년이라는 기간 동안 AI 기술 지형이 급변할 리스크 (예: Transformer 이후 새로운 패러다임 등장)

---

## 추가 분석 요청

### A. CS 리뷰어 어필 전략 분석

위 8개 차원의 리뷰를 완료한 후, 다음을 추가로 분석하세요:

1. **CS 전공 평가위원이 가장 높이 평가할 3가지 요소**와 이를 극대화하는 발표 전략
2. **CS 전공 평가위원이 가장 의심할 3가지 요소**와 이를 방어하는 구체적 화법/데이터
3. **"뇌과학 영감 AI" 제안에서 CS 리뷰어가 흔히 제기하는 비판 패턴** 5가지와 각각에 대한 선제적 대응 논리

### B. 발표 전략 최적화

1. **30분 발표 + 10분 Q&A** 시간 배분 최적화안
2. **첫 3분 훅(Hook)** — CS 리뷰어의 관심을 즉각 사로잡을 오프닝 전략
3. **킬러 데모/시각화** — 기술적 우위를 한 장의 슬라이드로 증명할 수 있는 핵심 Figure 제안
4. **Q&A 대비 예상 질문 Top 15**와 각각의 모범 답변 (30초 이내)
5. **절대 하면 안 되는 실수 Top 5** (과거 IITP 평가에서 흔히 발생하는 함정)

### C. 경쟁 제안 대비 차별화

이 분야에서 경쟁 제안이 가능한 다른 접근법들을 예상하고:
1. **예상 경쟁 접근법 3가지**와 각각의 강점
2. **우리 제안이 반드시 이겨야 하는 비교 포인트** 3가지
3. **"왜 하필 이 팀이어야 하는가?"에 대한 1분 엘리베이터 피치**

---

## 출력 형식

각 평가 차원별로 다음 테이블 형식을 사용하세요:

| 항목 | 위원 A (CS/AI) | 위원 B (산업계) | 위원 C (뇌과학) |
|------|---------------|---------------|----------------|
| **점수 (1-10)** | | | |
| **핵심 강점** | | | |
| **치명적 약점 #1** | | | |
| **치명적 약점 #2** | | | |
| **치명적 약점 #3** | | | |
| **킬러 질문 #1** | | | |
| **킬러 질문 #2** | | | |
| **최고점 전략** | | | |

마지막에 **종합 전략 보고서**를 작성하세요:
- 전체 점수 예측 (현재 상태 vs. 최적화 후)
- **Must-Fix** (발표 전 반드시 수정해야 할 사항 5개)
- **Nice-to-Have** (시간이 허락하면 보완할 사항 5개)
- **발표 당일 행동 가이드** (복장, 태도, 화법, 시간 관리 포함)

---

## 중요 참고사항

1. **"잘했다"는 피드백은 불필요합니다.** 모든 에너지를 약점 발견과 보완 전략에 집중하세요.
2. **CS 전공자 관점을 최우선으로** — 뇌과학적 정당화보다 CS적 기여(contribution)가 핵심입니다.
3. **정량적 근거를 요구하세요** — "우수하다", "혁신적이다" 같은 수식어는 벤치마크 결과로 대체되어야 합니다.
4. **경쟁 기술 대비 분석이 핵심** — 특히 Meta JEPA, Mamba/Titans, Google Perceiver와의 직접 비교.
5. **RFP 요구사항 체크리스트** — 에너지 효율성, 자원 효율성, 다중감각통합, 개념주도적 정보처리, 선택적 주의 5가지가 모두 충족되는지 면밀히 확인.
6. **Think Ultra** — 표면적 문제가 아니라, 근본적 논리 구조의 결함을 찾아내세요.

부록: RFP 평가 기준 매핑 체크리스트

아래는 RFP(2026-인공지능-013)에서 명시한 핵심 요구사항입니다. 발표자료가 각 항목을 충족하는지 ✅/⚠️/❌로 표시하세요.

A. 품목(문제) 정의 충족도

RFP 요구사항 발표자료 충족 여부 근거 슬라이드 보완 필요사항
다중감각통합(multisensory integration)
개념 주도적(concept-driven) 정보처리
선택적 주의(selective attention) 메커니즘
에너지 효율성 (뇌 수준)
자원 효율성 (소량 데이터/희귀 사례 학습)

B. AS-IS → TO-BE 매핑

AS-IS 문제 TO-BE 목표 발표자료의 대응 방안 충족도
초거대 AI의 막대한 에너지 소비 뇌 에너지 효율성 대비 에너지 고효율 AI
지도학습 기반 대규모 데이터 처리의 부담 소량 데이터로 일반화하는 자원 효율적 AI
단일 감각 의존 → 낮은 강건성 다중 감각 통합을 통한 실세계 환경 해석
특정 양상/과업 최적화 → 블랙박스 개념적 근거를 제시하는 주도적 정보처리 AI
비효율적 self-attention 상황/맥락 기반 유연한 선택적 주의 AI

C. 특이사항 체크리스트

요구사항 충족 근거
총괄/세부1 과제와 연계하여 수행
동일 사업 총괄/세부과제 간 데이터셋 연계/통합
다학제(뇌과학, 인지과학, 심리학, 언어학) 공동연구
산학연 협력 체계 구성
상용화·기술이전(Commercialization·Transition) 계획 구체화
R&D결과 후속연구(응용·개발) 연계방안 제시

D. 과제특징 체크 (RFP에서 ✓ 표시된 항목)

과제특징 발표자료 대응 슬라이드
공개SW(✓) Apache 2.0 GitHub 공개 (S34)
기술료비징수(✓) Open-Core 수익 모델 (S35)
연구데이터공개(✓) 다중감각 행동 데이터 + 뇌신호 페어링 데이터 공개
국제협력R&D BNL/UIC 협력 (S32)

부록: CS 리뷰어가 집중 공격할 "위험 키워드" 목록

발표 중 다음 키워드를 사용할 때 즉각적으로 방어 논리가 준비되어 있어야 합니다:

위험 키워드 CS 리뷰어의 예상 반응 선제적 방어 전략
"뇌 모사" / "Brain-inspired" "실제 뇌의 어떤 메커니즘을 어느 정확도로 모사하나? 단순 은유 아닌가?" 구체적 뇌 메커니즘(예: V1→V2→V4→IT 계층) 대응 관계 도식 준비
"통합" / "Integration" "단순 concat/late-fusion 아닌가? 진정한 cross-modal reasoning인가?" PID의 Redundancy·Unique·Synergy 분해가 구현하는 정보론적 통합 수준 설명
"효율적" / "Efficient" "FLOPs, 파라미터 수, 에너지 소비 정량 비교 데이터는?" Transformer 대비 SSM의 O(n) vs O(n²) 복잡도 + 실측 GPU 시간 비교
"강건한" / "Robust" "어떤 perturbation에 대해? Adversarial? Domain shift? Noise?" 5가지 corruption 유형별 성능 저하 곡선 예시 준비
"혁신적" / "Novel" "Meta JEPA / Mamba / Perceiver 대비 무엇이 다른가?" 비교 테이블 (기능, 복잡도, 감각 모달리티 수, 뇌과학 근거)
"세계 최초" / "First" "정말? 선행 연구 X, Y, Z는?" 정확한 차별점 한정: "5감각+ 통합에 PID bridging을 적용한 것은 최초" 등
"Platonic Representation" "이것은 아직 가설(hypothesis) 수준 아닌가? 검증 방법은?" 프로젝트 내 검증 실험 설계 제시 (예: 교차 모달 표현 유사도 측정)
"Global Workspace" "GWT는 의식 이론이지, 공학적 프레임워크가 아닌데?" Baars/Dehaene의 GWT를 구현 가능한 아키텍처로 재정의한 contribution 명시

이 프롬프트는 발표 준비 과정에서 반복적으로 사용하여, 수정본에 대해 재리뷰를 받는 것을 권장합니다. 최종 목표: 모든 차원에서 8/10 이상, CS 리뷰어 어필 극대화