AI面试经历与公司情况和职业发展分析与建议
以下是根据文件内容列出的详细内容:
面试经历与公司情况
1. 字节AML
- 结果:Offer
- 面试体验:一面体验差,面试官无经验。
- 技术考察:注重coding,每轮两道题。
2. 边塞科技
- 结果:拒
- 特点:专注于RLHF和微调,清华背景,创始人有OpenAI经验。
- 学习收获:在RLHF上积累多,学到了很多东西。
3. 阿里达摩院(新达摩)
- 结果:Offer
- 面试内容:一面考察LeetCode,二面与团队大老板交流,涉及大模型技术、未来市场方向等。
- 团队特点:纯研究方向,算力强大,主要研究大语言模型和多模态大模型。
4. 月之暗面(moonshot)
- 结果:拒
- 面试内容:一面涉及大模型训练、Transformer架构、分布式训练等,深度和广度较高。
- 团队背景:创始人和员工背景强大。
5. 零一万物
- 结果:拒
- 面试内容:一面涉及LeetCode和推荐系统问题,二面考察较难的LeetCode。
6. 好未来
- 结果:Offer
- 面试内容:一面LeetCode简单,模型轮问题中规中矩。
- 项目方向:数学相关的GPT模型。
7. IDEA研究院
- 结果:拒
- 面试情况:一面被拒,细节不详。
8. 科大讯飞
- 结果:拒
- 原因:HR认为不会去合肥。
9. 百度文心
- 结果:Offer
- 面试轮次:多轮面试,涉及数据处理、模型训练等内容。
- 团队特点:组分细致,模型、框架、数据等分开。
10. 百川智能
- 结果:拒
- 原因:记错面试时间,被HR拒,理由是需3年以上经验。
11. 商汤
- 结果:拒
- 面试内容:一面LeetCode+写MHA,二面情况不详。
12. 小红书
- 结果:简历拒
- 原因:猎头说需要PhD。
13. 智元机器人(Agibot)
- 结果:拒
- 面试内容:一面与稚晖君交流,涉及Transformer相关问题。
14. 面壁科技/面壁智能
- 结果:Offer
- 面试内容:两轮面试,涉及大模型训练、Transformer相关内容。
15. 光年之外
- 结果:简历拒
16. 北京智源人工智能研究院
- 结果:消失(默拒)
- 面试情况:多轮面试,涉及不同团队,后无消息。
17. 360
- 结果:简历拒
- 原因:猎头说需要高P,P8+。
18. Minimax
- 结果:口头Offer
- 面试内容:多轮面试,主要考LeetCode,手写MHA。
- Offer情况:分配到框架组,后未继续接触。
19. 昆仑万维
- 结果:Offer
- 面试内容:涉及大模型训练细节,无LeetCode。
20. 云从科技
- 结果:拒
- 面试内容:两轮面试,深入讨论大模型训练细节。
21. 阿里夸克
- 结果:Offer
- 面试轮次:4轮,涉及LeetCode、大模型内容。
- Offer情况:包裹70-80万。
22. 衔远
- 结果:Offer
- 面试内容:3轮面试,与周伯文老师交流。
- Offer情况:框架岗位,包裹较大。
23. 潞晨科技(Colossal-AI)
- 结果:拒
- 面试内容:框架内容,模型切分方式,Flash-Attention。
24. 蚂蚁
- 结果:Offer
- 面试内容:与徐鹏老师交流,涉及多方面经历。
- Offer情况:第一年算上签字费70-80万。
25. 腾讯
- 结果:简历拒
- 原因:猎头说需要PhD。
感悟与总结
- 大模型方向竞争激烈:新模型、新paper不断涌现,学习压力大。
- Research岗位要求全面:不仅需要研究能力,工程能力也重要。
- 硬核岗位要求高:尤其初创公司,要求掌握应用、模型、框架、底层后端、硬件等多方面知识。
- 个人发展方向:模型>框架>底层>其他,下一步想发展底层能力。
- 市场前景不明朗:对市场不太关注,更关注技术本身。
- RLHF前景广阔:强化学习方向值得深入研究。
- 大模型岗位薪资较高:总体薪资水平相对较高。
- 公司集中在语言模型:大多数公司集中在语言模型,部分有研究多模态预训练方向。
针对感悟与总结的职业发展分析与建议
1. 大模型方向竞争激烈:新模型、新paper不断涌现,学习压力大
环境上下文:
大模型领域技术迭代极快(如GPT-4→GPT-5、LLaMA系列、MoE架构等),学术界与工业界界限模糊,企业需快速落地前沿技术。
国内“百模大战”导致同质化竞争,差异化能力(如垂域优化、推理加速)成为关键。
技术重点与建议:
持续跟踪前沿:每周精读1-2篇顶会论文(NeurIPS/ICML/ACL),关注技术趋势(如3D生成、Agentic AI)。
建立技术壁垒:深耕某一细分方向(如RLHF、长上下文处理、模型压缩),结合开源项目(如Hugging Face、vLLM)实践。
工具链熟练度:掌握PyTorch 2.0、JAX、Triton等框架,熟悉分布式训练(FSDP、Tensor Parallelism)。
2. Research岗位要求全面:研究能力与工程能力并重
环境上下文:
企业研究团队(如达摩院、智源)需兼顾学术影响力与落地价值,纯理论岗位减少。
工程能力短板会限制研究想法的验证效率(如无法快速实现原型)。
技术重点与建议:
研究能力:强化数学基础(概率论、优化理论),掌握实验设计(A/B测试、消融实验)与论文写作技巧。
工程能力:
代码规范:学习Google/CUDA级优化代码(如FlashAttention实现)。
大规模训练:熟悉Deepspeed、Megatron-LM,理解CUDA内核优化(如kernel fusion)。
平衡策略:通过开源贡献(如给LLaMA提交PR)或Kaggle竞赛提升全栈能力。
3. 硬核岗位要求高(初创公司尤甚):需掌握应用→模型→框架→底层→硬件的全栈知识
环境上下文:
初创公司(如边塞、潞晨)资源有限,需员工覆盖技术链多个环节。
大厂核心组(如阿里夸克)同样需要跨层优化能力(如模型架构+推理引擎协同)。
技术重点与建议:
技术栈纵深:
模型层:深入Transformer变体(RetNet、Mamba)、MoE架构、量化算法(AWQ、GPTQ)。
框架层:学习编译器技术(TVM、MLIR)、自动并行策略(Alpa)。
硬件层:理解GPU架构(SM单元、HBM)、AI芯片(TPU、昇腾)的适配优化。
实战路径:参与ColossalAI/MegEngine等开源项目,或复现论文并优化训练效率。
4. 个人发展方向:模型 > 框架 > 底层 > 其他,下一步想发展底层能力
环境上下文:
底层能力(如CUDA编程、分布式系统)人才稀缺,职业生命周期更长。
模型层竞争内卷,底层技术(如推理加速、芯片适配)成为瓶颈突破点。
技术重点与建议:
核心学习目标:
高性能计算:学习SIMD指令集、内存层次优化、RDMA网络通信。
编译器技术:掌握LLVM IR、算子融合、自动微分(如PyTorch的TorchDynamo)。
资源推荐:
课程:UCB CS267(并行计算)、NVIDIA DLI系列。
项目:手写简化版TensorRT(实现LayerNorm融合、INT8校准)。
5. 市场前景不明朗:更关注技术本身
环境上下文:
资本对AGI预期降温,企业转向商业化落地(如教育、医疗垂类)。
技术深度决定抗风险能力,通用型人才易被优化。
建议:
聚焦垂直场景:选择1-2个高价值领域(如生物医药、金融推理),学习领域知识(如AlphaFold3、BloombergGPT)。
构建技术影响力:通过技术博客、Meetup分享建立个人品牌,降低市场波动影响。
6. RLHF前景广阔:强化学习方向值得深入研究
环境上下文:
RLHF是当前对齐(Alignment)的核心手段,但技术尚未成熟(如奖励模型过拟合、偏好冲突)。
应用场景扩展至视频生成、机器人控制等领域。
技术重点与建议:
核心领域:
偏好建模:研究Constitutional AI、DPO等免RL方法。
高效采样:离线RL(如Implicit Q-Learning)、多智能体协作。
实践建议:使用OpenRL/RL4LMs库,在开源模型(如ChatGLM3)上微调奖励模型。
7. 大模型岗位薪资较高,公司集中在语言模型(部分有多模态)
环境上下文:
头部公司(月之暗面、Minimax)薪资溢价显著,但多模态(如视频、3D生成)人才缺口更大。
建议:
多模态拓展:学习CLIP、Stable Diffusion架构,关注Diffusion Transformer、Sora技术栈。
薪资谈判策略:
对比Offer时关注长期价值(如股票归属周期、团队技术储备)。
初创公司可争取技术决策权(如模型架构设计角色)。
综合职业发展路径建议
- 短期(1-2年):
在现有岗位(如阿里夸克/面壁科技)深耕底层技术,同时通过开源项目接触全栈流程。
考取权威认证(如NVIDIA Certified AI Architect)提升简历竞争力。
- 中期(3-5年):
向技术负责人(TL)转型,主导跨层优化项目(如训推一体框架)。
评估创业机会(如RLHF工具链、垂类Agent产品)。
- 长期视野:
关注AI与物理世界交互(如机器人、脑机接口),提前布局具身智能(Embodied AI)技术栈。
通过技术深度+垂直领域交叉,可显著提升职业抗风险能力与天花板。
国内外聚焦语言模型(LLM)和多模态预训练的代表性公司及案例整理
截至2025年10月,国内外聚焦语言模型(LLM)和多模态预训练的代表性公司及案例整理如下(按技术方向分类):
一、纯语言模型(LLM)主导型公司
-
OpenAI
- 案例:GPT-5系列模型,专注长上下文理解(128K+ tokens)、逻辑推理增强,商业化落地于企业级Copilot工具。
- 差异化:闭源生态+API经济,强化对齐(Alignment)技术(如RLHF+Constitutional AI结合)。
-
Anthropic
- 案例:Claude 4系列,主打安全可控的对话模型,采用“宪法式”约束(Constitutional AI)减少有害输出。
-
月之暗面(Moonshot)
- 案例:Kimi Chat 2.0,支持200万字上下文窗口,优化中文长文本处理(法律、金融合同解析)。
-
零一万物(01.AI)
- 案例:Yi-Large模型,专攻中英双语平衡性能,开源生态中技术影响力突出。
-
百川智能
- 案例:Baichuan 3,针对垂域(医疗、教育)微调效率优化,提供轻量级API服务。
二、多模态预训练核心公司
-
Google DeepMind
- 案例:Gemini 2.0,统一文本、图像、视频、音频的跨模态推理,应用于Google搜索生成式体验。
- 技术亮点:Pathways架构支持动态模态组合。
-
Meta(FAIR)
- 案例:
- CM3leon:文本到3D生成模型,支持游戏/影视资产创作。
- SeamlessM4T v2:语音-文本-图像实时跨模态翻译。
- 案例:
-
商汤科技
- 案例:书生·浦语3.0(InternLM3-MM),中文多模态理解标杆,落地智慧城市(视频监控语义分析)。
-
智谱AI(Zhipu)
- 案例:CogVLM 2,增强视觉-语言联合推理,用于工业质检(如汽车零部件缺陷检测)。
-
Runway ML
- 案例:Gen-3 Alpha,视频生成模型支持文本/图像/视频多模态输入,好莱坞影视制作合作案例。
三、语言模型延伸至多模态的转型公司
-
微软(Azure AI)
- 案例:
- Phi-3-Vision:小规模多模态模型,优化边缘设备部署(如Surface Pro实时OCR)。
- 与OpenAI合作:GPT-4o多模态能力整合进Teams、Office。
- 案例:
-
字节跳动(AML)
- 案例:豆包大模型(Doubao-MM),从纯文本扩展至短视频脚本生成+画面分镜联动。
-
阿里达摩院
- 案例:通义千问-MM,电商场景多模态应用(商品描述生成+主图设计建议)。
四、新兴多模态创业公司
-
Pika Labs
- 案例:Pika 2.0,文本/图像到高保真视频生成,主打影视级动态控制(如镜头运镜参数化)。
-
潞晨科技(Colossal-AI)
- 案例:开源多模态训练框架OmniLMM,支持Llama3+Stable Diffusion联合微调。
-
面壁智能
- 案例:CPM-Bee 2.0,探索多模态Agent(文本+视觉指令执行,如家居机器人控制)。
行业趋势观察(2025年)
- 语言模型:向垂域深化(法律、生物)、推理成本优化(MoE架构普及)。
- 多模态:3D生成、实时视频交互、具身智能(机器人感知)成为新战场。
- 风险提示:多模态数据版权争议加剧(如Sora生成内容归属问题)。
如需某家公司技术细节或落地案例的深度分析,可进一步定向展开。