Ledigt jobb: Mjukvaruutvecklare
- Jobb
- Karriärmöjlighet inom robotik och förstärkningsinlärning
Karriärmöjlighet inom robotik och förstärkningsinlärning
IntuiCell ABSkåne län, Lund
Tidigare erfarenhet är önskad
154 dagar kvar
att ansöka till jobbet
Detta är en karriärförändrande möjlighet att arbeta tillsammans med världsklassingenjörer och forskare på en mission att omdefiniera vad maskiner kan göra. Du kommer att hjälpa oss att bygga det digitala nervsystemet för intelligenta agenter, inte genom att förfina befintliga verktyg, utan genom att uppfinna helt nya system. Ditt arbete kommer direkt att forma hur intelligenta maskiner lär sig, anpassar sig och agerar i den fysiska världen.
Vi utökar nu våra modeller till robotik, där de fungerar som ett adaptivt lager mellan högre lärande system, såsom förstärkningsinlärning (RL) och vision-språk-handling (VLA) modeller, och låg-nivå aktuatorer. Detta lager kan avsevärt minska simulerings-till-verklighet klyftan och ta itu med de centrala implementeringsutmaningarna i den verkliga världen inom allmän robotik. De system du hjälper till att designa kommer att prövas mot verkliga begränsningar och testas på verkliga robotplattformar.
För att göra detta exceptionellt bra behöver vi en djupare, praktisk förståelse av begränsningarna av RL i verkliga system. Du kommer att undersöka hur vår modell interagerar med RL-policyer i praktiken och hjälpa till att kvantifiera Intui’s kapabiliteter tillsammans med state-of-the-art RL i verkliga implementeringar.
Denna roll handlar om att lösa några av de största problemen inom allmän robotik idag.
Vår mjukvarustack är byggd från grunden i C/C++. Vi förlitar oss inte på vanliga ML-ramverk. Vi bygger vad vi behöver. Arbetet är djupt, tvärvetenskapligt och utforskande. Du kommer att översätta teori, artiklar och experimentella resultat till robusta, realtidsystem som kan testas i simulering och, i allt större utsträckning, på verkliga robotplattformar genom partners.
Vad Du Kommer Att Göra
Utforska och utvärdera RL-ansatser i samband med robotik och inbyggd kontroll av humanoida robotar samt andra formfaktorer
Designa och genomföra experiment för att förstå de underliggande modellernas dynamik, begränsningar och felmod, särskilt vid anpassning till realtidsförändringar
Prototypa och testa lärande-baserade komponenter i låg-nivå, realtidsystem
Samarbeta med andra forskningsingenjörer för att vägleda modellutveckling och forskningsriktning genom bevis, experiment och tydlig resonemang
Hjälpa oss att förstå vad som ska testas, hur det ska testas och varför.
Vad Du Tar Med Dig
Stark forskarbakgrund, helst en doktorsexamen, eller en exceptionell magisterexamen med betydande erfarenhet inom robotik och state-of-the-art RL / VLA-modeller
Praktisk erfarenhet av att tillämpa förstärkningsinlärning på verklig hårdvara
God förståelse för robotikens grunder, kontrollsystem och fysiska begränsningar
Systemnivå programmeringsmentalitet, med färdigheter i C/C++ eller liknande låg-nivå språk
Förmåga att översätta artiklar, teori och experimentella idéer till fungerande kod och experiment som andra kan förstå, testa och bygga vidare på
Nyfikenhet och noggrannhet när man arbetar i dåligt kartlagda områden
Bonus Signaler
Erfarenhet av låg-nivå robotkontrollsystem (t.ex. PID), realtidsystem eller hårdvara-i-loopen uppsättningar
Kännedom om simulerings-till-verklighet utmaningar och strategier för att mildra dem
Exponering för vision-språk-handling modeller eller andra hög-nivå lärande system för robotik
Bakgrund inom kontrollteori eller fysik
Vem Du Är
Forskningsdriven och bekväm med att arbeta där svaren är oklara
Eftertänksam, evidensorienterad och villig att ifrågasätta antaganden, inklusive dina egna
Samarbetsvillig och generös med insikter, inte territoriell om idéer
Motiverad av att bygga grundläggande kapabiliteter snarare än ytliga demonstrationer
🖐 Passar detta jobb någon du känner?
Andra jobb inom samma område
Kanske kan det vara dags att bredda sökningen med dessa lediga jobb
-
Opinionsläge: Demoskop februari 2026 – Centern ökar, S fortsatt störst
Fre, 27 feb 2026 - 09:35