Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 190 résultats.
Mission freelance
Développeur Salesforce (H/F)
Publiée le
CI/CD
CRM
Salesforce Sales Cloud
2 ans
400-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Salesforce (H/F) à Lyon, France. Contexte : Concepteur / Développeur Salesforce sur le périmètre SI au sein du CRM-Marketing. Dans le cadre de l'exécution des feuilles de route et des projets du périmètre SI Client (Salesforce Core, Sales, Community, Service, ...) et en lien avec l’organisation de l'entité SI Digital, Front Office et Intégration Groupe de la DSI Centrale, nous recherchons un Développeur Salesforce pour réaliser les travaux de : - Conception technique Salesforce - Développement & paramétrage Salesforce Les missions attendues par le Développeur Salesforce (H/F) : La mission au sein de la DSI consiste à délivrer les activités ci-dessous en rendant compte au Scrum-Master ou au manager opérationnel du CRM & Marketing : 1. Conception technique Salesforce : Accompagner les équipes Métiers et les BA dans la traduction des besoins en solution technique Contribuer à la définition des solutions techniques en faisant ressortir le standard du spécifique Contribuer à la phase de grooming en fournissant notamment des évaluations de chiffrages Rédaction de documentations techniques Contribuer à la gestion de tous les environnements de développement et au processus de déploiement jusqu'à la production Proposer des améliorations sur les processus et implémentations Contribuer au diagnostic des incidents de Production et de Recette 2. Développement & paramétrage Salesforce : Participer aux instances de gestion de la Backlog en mode Agile Effectuer le paramétrage avancé Salesforce (workflows, ...) Effectuer les développements en APEX, composants Lightning, Visual Force, triggers, interfaces, workflows, API Coder les tests automatiques nécessaires à l'application Tagguer le code en lien avec la documentation JIRA Versionner les composants avec Git Déployer les composants dans le cycle de vie avec le process CI/CD Accompagner les BA et métiers dans la Recette et apporter les correctifs nécessaires
Offre premium
Mission freelance
Tech Lead Full Stack Java / Angular
Publiée le
Angular
Hibernate
J2EE / Java EE
3 mois
400-500 €
Paris, France
Télétravail partiel
Dans le cadre du développement d’une nouvelle plateforme de jeux en mode SaaS, vous interviendrez en renfort d’une équipe dédiée afin d’assurer la conception, la réalisation et l’évolution d’applications critiques à forte volumétrie. Vos principales responsabilités : Concevoir et développer de nouvelles fonctionnalités techniques et fonctionnelles. Produire une documentation technique détaillée et fiable. Garantir la cohérence, la performance et la qualité des applications tout au long de leur cycle de vie logiciel. Contribuer aux bonnes pratiques de développement, d’architecture et de maintien en conditions opérationnelles. Participer ponctuellement à des échanges avec des parties prenantes internes et externes. Environnement technique : Backend : Java 21+, Quarkus 3.15+, Hibernate Panache, PostgreSQL 17+ Frontend : Angular 17+ API : REST & CQRS (JSON) Évènementiel : Kafka (Debezium / Strimzi) Cache : Caffeine (local) & Redis (distribué) Infrastructure : Kubernetes / Cloud Tests : JUnit, Wiremock, Quarkus Dev Tools Usine logicielle : GitLab Ultimate + GitLab Duo (LLM), Jira, Confluence
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
Ingénieur de production - N4 compétences DevOps, windows, openshift - STRASBOURG (H/F)
Publiée le
Administration Windows
DevOps
Google Cloud Platform (GCP)
12 mois
400-420 €
Strasbourg, Grand Est
Télétravail partiel
Espace Freelance recherche pour l'un de ses clients un : Ingénieur de production - N4 compétences DevOps, windows, openshift - STRASBOURG (H/F) Missions principales : Administrer les applications monétiques sur les environnements de production et hors production. Assurer les installations, mises en production et déploiements . Gérer les incidents applicatifs (diagnostic, résolution, escalade si nécessaire). Participer activement aux projets applicatifs et techniques . Contribuer à l’amélioration continue et à la fiabilité de la production. Intervenir potentiellement en astreinte , en soirée, nuit ou week-end selon les besoins.
Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)
Publiée le
Azure
12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
Mission freelance
Devops Azure H/F
Publiée le
Azure DevOps
Entreprise Java Bean (EJB)
2 ans
450-550 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Devops Azure H/F à Paris, France. Les missions attendues par le Devops Azure H/F : Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Offre d'emploi
DevOps Engineer (H/F)
Publiée le
Azure
CI/CD
Confluence
3 ans
38k-43k €
300-370 €
Osny, Île-de-France
Télétravail partiel
Nous recherchons un(e) Ingénieur DevOps IT expérimenté(e) pour renforcer notre équipe Infrastructure. Avec un rôle transversal entre cloud Azure , middleware et outillage CI/CD , vous contribuerez directement à la performance, la sécurité et la scalabilité de nos environnements applicatifs. 🎯 Livrables attendus Automatisation & CI/CD Documentation technique Sécurité & conformité 🛠️ Vos missions Garantir la performance, la scalabilité et la sécurité des applications sur Azure et dans la landing zone. Déployer, configurer et maintenir les applications de développement logiciel : Jenkins, Docker, Confluence , etc. Automatiser et simplifier les déploiements pour améliorer la fiabilité des applications cloud. Gérer et superviser l’environnement Azure : Monitoring, Defender, Backup, Firewall… Réaliser les mises à jour, migrations et montées de version des middlewares avec un impact minimal. Surveiller la consommation des ressources cloud, la performance et la conformité sécurité. Soutenir l’équipe infrastructure dans l’exploitation on-premise : VMware, réseau Cisco, stockage/serveurs Dell, Veeam.
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Chef de Projet Data Science (H/F)
Publiée le
BigQuery
Data science
Gestion de projet
210 jours
610-800 €
Île-de-France, France
Télétravail partiel
Un grand groupe français du secteur des médias et du numérique recherche un Chef de Projet Data Science senior pour coordonner les initiatives data entre équipes techniques et directions métiers, afin de maximiser l'exploitation de la donnée comme levier de croissance. Missions principales : Assurer la cohérence entre les pôles Data (Technique, Intelligence, Management, Gouvernance) Être le point d'entrée pour les directions métiers (Produit, Editorial, Marketing, Publicité) Recueillir et formaliser les besoins data Animer ateliers et instances projets Produire le reporting et suivre les avancées
Offre d'emploi
Data Architecte - Lyon
Publiée le
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Administrateur IaC (H/F)
Publiée le
Ansible
Azure
Git
6 mois
400-500 €
Le Mans, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Proche du Mans 🏠 Télétravail : 3 jours sur site 📝Contrat : Pré-embauche 👉 Contexte client : Vous rejoignez un acteur industriel français majeur en pleine transformation digitale. Au sein de la DSI, l’objectif est de renforcer les pratiques DevOps et d’industrialiser les environnements on-premise et Cloud grâce à l’Infrastructure as Code. En tant qu’ Ingénieur DevOps / Administrateur IaC , vous participez à la conception, l’automatisation et l’industrialisation des infrastructures du groupe. Vous serez amené(e) à : Automatiser les déploiements et configurations via Ansible et PowerShell Maintenir et faire évoluer les environnements serveurs (Windows / Linux) Développer des scripts d’industrialisation et d’automatisation Participer aux projets d’infrastructure (mise en prod, standardisation, migrations…) Contribuer à la fiabilisation et à la sécurité des plateformes techniques Documenter, optimiser et améliorer les processus existants Stack technique : Automation / IaC : Ansible, PowerShell Systèmes : Windows Server, Linux CI/CD : Git, GitLab CI Virtualisation / Cloud : VMware, Azure (souhaité)
Mission freelance
Oracle EBS Production support Technical expert
Publiée le
Ivalua
Oracle EBS
PL/SQL
12 mois
650 €
Île-de-France, France
Télétravail partiel
Notre client recherche un Expert Technique Oracle E-Business Suite – Support RUN & Environnements (H/F) dans le cadre d'une longue mission. Support technique de l’ERP Oracle E-Business Suite et gestion des environnements techniques dans le cadre du maintien en conditions opérationnelles de la plateforme Finance groupe. - Gérer et maintenir les environnements Oracle EBS (une dizaine, production et hors production). Assurer le support de production et RUN sur les incidents, en coordination avec les équipes internes. - Suivre la qualité de service et des livrables techniques. - Appliquer les patchs techniques, gérer les évolutions de versions, et la montée en cloud (Oracle Cloud Infrastructure). - Soutenir un développeur interne dans l’intégration et les tâches techniques (suivi, gestion d’environnement, supervision). - Participer à la mise en œuvre de nouveaux projets comme Ivalua en lien avec Oracle EBS via Microsoft ADF. - Piloter les activités techniques en lien avec les autres outils Finance : Jenji, BasWare, Panaya, GEO Efficiency. Contexte équipe : équipe RUN de 3 experts techniques
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Mission freelance
Founding Engineer TypeScript / Node.js / IA / LLM
Publiée le
AWS Cloud
Large Language Model (LLM)
Node.js
12 mois
Paris, France
Contexte de la mission Un client confidentiel du secteur transport/logistique, financé par des fonds d’investissement de premier plan, lance un projet stratégique visant à révolutionner la gestion du transport routier à l’aide d’agents d’intelligence artificielle. Dans ce cadre, l’entreprise recherche un Founding Engineer spécialisé en TypeScript / Node.js et IA pour rejoindre une équipe technique restreinte composée du CTO et de trois développeurs confirmés. La mission se déroule entièrement en présentiel afin de favoriser la co-construction rapide du produit et des itérations techniques rapprochées. Objectifs et responsabilités Le consultant interviendra sur la conception et la mise en place du socle technique du produit, incluant : • Concevoir, développer et déployer des APIs robustes et scalables • Structurer les flux de données provenant de systèmes TMS, appels, messages et autres sources • Collaborer étroitement avec le CTO et les utilisateurs opérationnels pour la construction du MVP • Participer au lancement d’un projet innovant d’IA temps réel (audio) • Assurer un rôle majeur sur le backend, la data et l’ingénierie IA • Mettre en place l’observabilité : monitoring, logs, métriques et alerting • Contribuer aux choix d’architecture, arbitrages techniques et discussions produits • Participer au déploiement, aux tests et aux itérations rapides en environnement startup Profil recherché Compétences indispensables • Ingénieur fullstack avec forte orientation backend et data • Minimum 4 ans d’expérience significative sur Node.js et TypeScript • Forte expertise Backend et Data Engineering • Expérience avérée dans un environnement startup, scale-up, licorne ou rôle de Founding Engineer • Avoir déjà lancé un produit from scratch • Niveau attendu : Staff Engineer ou Principal Engineer • Capacité à raisonner en approche “problème → solution” • Grande rapidité d’itération : tester, ajuster, apprendre, recommencer • Capacité à échanger directement avec les utilisateurs métier (transporteurs, brokers) • Connaissance pratique des LLM et de l’IA appliquée • Flexibilité sur les horaires lors des phases de mise en production (soir, week-end si nécessaire) Compétences appréciées (bonus) • Expérience en IA agentique (agents autonomes) • Connaissances poussées en prompting, grounding, fallback, monitoring IA • Amélioration des performances d’agents en production • Contribution à l’architecture produit à grande échelle Stack technique actuelle • Node.js / TypeScript (backend principal) • Python (agents IA) • PostgreSQL • API REST, WebSocket • AWS (architecture scalable), Kubernetes
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Mission freelance
Developpeur full stack nodejs/reactjs
Publiée le
Google Cloud Platform (GCP)
Kubernetes
Node.js
1 an
100-450 €
Lille, Hauts-de-France
Télétravail partiel
Nos applications couvrent un périmètre fonctionnel et opérationnel large : Commerce (gestion des ventes et distribution) Back-office (création d’un catalogue d’offres) Administration de contrats et de sinistres. Objectifs et livrables Ta future contribution : Tu intègres une feature team agile travaillant sur un des projets de la V2. Tu conçois et développes de nouvelles fonctionnalités en collaboration avec l’équipe produit /métier Tu assures la qualité du code au sein de l’équipe grâce aux bonnes pratiques (code review, pair programming…). Tu es proactif·ve pour aider à la résolution de problématiques complexes. Tu conçois des applications intuitives, stables, évolutives, sécurisées et en déploiement continu.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
1190 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois