https://www.v2ex.com/t/1087411?p=1
#混合办公 #远程 #AI #北美 #后端 #Prompt #ReactNative
https://flowgpt.com/
Wechat: 13944875811
Email: yanyan@flowgpt.com
---
3.2 分
#混合办公 #远程 #AI #北美 #后端 #Prompt #ReactNative
https://flowgpt.com/
Wechat: 13944875811
Email: yanyan@flowgpt.com
---
3.2 分
https://www.v2ex.com/t/1087552?p=1
https://www.v2ex.com/t/1087562?p=1
#远程 #AI #Graphics engineer #Generative AI Researcher #技术美术
岗位比较多
www.meshy.ai
招聘地址: https://app.mokahr.com/social-recruitment/taichi/148086
Email: meiwang@meshy.ai
Wechat:Wmei_0814
---
3.1 分
https://www.v2ex.com/t/1087562?p=1
#远程 #AI #Graphics engineer #Generative AI Researcher #技术美术
岗位比较多
www.meshy.ai
招聘地址: https://app.mokahr.com/social-recruitment/taichi/148086
Email: meiwang@meshy.ai
Wechat:Wmei_0814
---
3.1 分
https://www.v2ex.com/t/1081193?p=1
https://x.com/JefferyTatsuya/status/1846455047301091663
#大象 #远程 #AI #全栈 #Python #React #产品经理
Sparticle
Email: jinf@sparticle.com
---
3.3 分
https://x.com/JefferyTatsuya/status/1846455047301091663
#大象 #远程 #AI #全栈 #Python #React #产品经理
Sparticle
Email: jinf@sparticle.com
---
3.3 分
https://www.v2ex.com/t/1072907?p=1
#远程 #AI #LangChain #前端
宁波国研信息技术有限公司
数据统计相关方面
电话: 19116410879
Wechat:peitaotom111
---
3.5 分
#远程 #AI #LangChain #前端
宁波国研信息技术有限公司
数据统计相关方面
电话: 19116410879
Wechat:peitaotom111
---
3.5 分
https://www.v2ex.com/t/1060930?p=1
#远程 #游戏 #React #Python #AI
infinityg.ai
Email: hello@infinityg.ai
---
3.0 分
#远程 #游戏 #React #Python #AI
infinityg.ai
Email: hello@infinityg.ai
---
3.0 分
https://www.v2ex.com/t/1058299?p=1
#远程 #外企 #AI #全栈
CambioML
Wechat: bingzhaopro
Email: hr@cambioml.com
---
3.0 分
---
待遇未知
#远程 #外企 #AI #全栈
CambioML
Wechat: bingzhaopro
Email: hr@cambioml.com
---
3.0 分
---
待遇未知
https://x.com/llennchan2003/status/1813039300478705786
#AI #LLM
需要找一位CUDA工程师,负责高性能LLM推理引擎开发,主要是负责某特殊架构的MOE语言模型在H100上的推理实现,预算高(10W+),请联系我
你应该会:
1.直接hardcode,针对具体模型优化的c代码实现推理引擎
2.对调度,运筹学,算法优化有一定的了解
3.知道如何压缩KV Cache的大小,实现从硬盘/cpu ram的高效加载/持久化方案
加分项是:
解决prefix变化时的kv cache复用问题
目标是:实现超过现有开源方案的5-10倍吞吐量的推理引擎,仅针对某个具体模型,目前已有相关大厂实现了这一点,证明了这是可能的。
---
4.5 分
---
这个待遇低不了。
#AI #LLM
需要找一位CUDA工程师,负责高性能LLM推理引擎开发,主要是负责某特殊架构的MOE语言模型在H100上的推理实现,预算高(10W+),请联系我
你应该会:
1.直接hardcode,针对具体模型优化的c代码实现推理引擎
2.对调度,运筹学,算法优化有一定的了解
3.知道如何压缩KV Cache的大小,实现从硬盘/cpu ram的高效加载/持久化方案
加分项是:
解决prefix变化时的kv cache复用问题
目标是:实现超过现有开源方案的5-10倍吞吐量的推理引擎,仅针对某个具体模型,目前已有相关大厂实现了这一点,证明了这是可能的。
---
4.5 分
---
这个待遇低不了。
https://www.v2ex.com/t/1057611?p=1
#远程 #外企 #Flutter #AI
https://worldexlab.com/
Wechat: 13390902266
---
3.2 分
#远程 #外企 #Flutter #AI
https://worldexlab.com/
Wechat: 13390902266
---
3.2 分