远川这篇楼教主的专访挺细致的,聊下个人观点和几个疑问。
1. 模仿学习上限会远低于人。 这点可能是对的,但是加上合理的工程优化和其他领域的知识就不是了。换句话说,Chatgpt 的能力会远低于人吗?
2. 不带有开车思考过程的数据没有意义。 那么怎么提供数据呢? Wayve 的Lingo是一个合理的实践吗?让司机说出自己这么做的原因?但是很多动作未必能考虑明白。
3.在世界模型的虚拟环境里见世面。 真实度和泛化性还有仿真确定性怎么保证呢?现在的Worldmodel 是不能取代真实数据的。没有真实数据的仿真环境,怎么保证sim2real的效果呢?还有没有足够真实数据基础的smart agent 的真实度又是从哪里来的呢?
4. L2到L4怎么就大部分是负累呢。即使仿真闭环训练,现在海量车队回传数据做世界模型提供真实基础再提供泛化性,这条路应该符合楼教主的技术愿景。
5. 开环的端到端模仿学习,不代表这些团队就没在做闭环仿真。故意区隔开来是不对的。
6. 蔚来四个orin的价值解释了四年,不如楼教主一个专访(大雾)