工作內(nèi)容:
1. 參與研發(fā)前沿多模態(tài)語(yǔ)言大模型(LLaVA等)、NerF,3D Gaussian、Stable Diffusion生成文生3D方向等相關(guān)前沿算法,發(fā)表國(guó)際頂級(jí)論文、申請(qǐng)專利
2. 深入調(diào)研和關(guān)注3D Gaussian、Stable Diffusion、LLM/VLM/AIGC等方向的前沿技術(shù),重點(diǎn)關(guān)注生成式、大語(yǔ)言模型和多模態(tài)模型Evaluation/SFT/Agent/數(shù)據(jù)合成技術(shù)等相關(guān)方向。
3. 負(fù)責(zé)多模態(tài)理解&3D生成式等算法,如 LLava、GPT、Otter、StabelDiffusion等系列,包括但不限于圖像-文本的多模態(tài)對(duì)話、多模態(tài)標(biāo)簽生成、VQA、多模態(tài)任務(wù)解析、觸發(fā)、圖像數(shù)據(jù)編輯及生成等。
1. 2027屆碩士及以上學(xué)歷在讀,人工智能、計(jì)算機(jī)、自動(dòng)化、數(shù)學(xué)相關(guān)專業(yè)優(yōu)先;
2. 有擴(kuò)散模型、GAN、ControlNet、LoRA、P-Tuning、NeRF等生成模型使用經(jīng)驗(yàn)者優(yōu)先;
3. 熟悉多模態(tài) CLIP 等transformer跨模態(tài)表征模型,熟悉 LLaVA、GPT-like、Otter、Sora 等前沿多模態(tài)大模型原理和訓(xùn)練,了解 LMM 訓(xùn)練中的數(shù)據(jù)制作、性能調(diào)優(yōu)及評(píng)測(cè)等環(huán)節(jié)者優(yōu)先;
4. 有一作頂級(jí)會(huì)議和期刊文章,有開源項(xiàng)目經(jīng)驗(yàn),或在多模態(tài)、計(jì)算機(jī)視覺或機(jī)器學(xué)習(xí)領(lǐng)域的比賽中獲得過優(yōu)異成績(jī)者優(yōu)先;
5. 一周4-5天,且持續(xù)6個(gè)月以上,有良好的英文讀寫能力和扎實(shí)的數(shù)學(xué)基礎(chǔ);責(zé)任心強(qiáng),積極主動(dòng),有良好的溝通能力和團(tuán)隊(duì)合作能力;
6. 有相關(guān)模型部署經(jīng)驗(yàn)者有限。