Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 713 résultats.
Offre d'emploi
Developpeur.euse bases de données
INFOTEL CONSEIL
Publiée le
Développement
Greenplum
Méthode Agile
3 ans
42k-46k €
300-380 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un pic d’activité, nous recherchons un(e) développeur(se) fortement orienté(e) bases de données, afin de renforcer une équipe existante sur des sujets de conception et de développement de traitements. Vous interviendrez au sein d’une équipe technique, en lien direct avec le Product Owner et les membres de l’équipe, sur des sujets liés au développement et à l’optimisation de traitements en base de données. La mission s’inscrit dans un environnement exigeant, nécessitant une forte maîtrise des bases de données, une capacité à traiter des volumes importants ainsi qu’une sensibilité aux enjeux de performance et de robustesse. Vos principales missions seront les suivantes : Analyser les demandes utilisateurs validées par le Product Owner Réaliser l’analyse fonctionnelle et technique des besoins Concevoir et développer des solutions orientées bases de données Développer des traitements en PL/pgSQL Réaliser des scripts Python orientés traitements de données Utiliser des scripts Shell si nécessaire Monter en compétence sur l’environnement Greenplum et l’écosystème existantTester, optimiser et mettre à disposition les livrables Garantir la qualité, la maintenabilité et la performance des traitements Produire un code documenté et conforme aux standards techniques Contribuer aux bonnes pratiques de l’équipe (revue de code, échanges techniques) L’environnement technique comprend notamment PostgreSQL, PL/pgSQL, Python, Shell, ainsi qu’une plateforme de type Greenplum. La mission est basée à Niort avec 2 jours de présence sur site par semaine.
Mission freelance
Data Quality Engineer Senior
INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality
6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Mission freelance
247838/Intégrateur d'exploitation / Ingé de Production Niort
WorldWide People
Publiée le
Dynatrace
Python
3 mois
300-310 €
Niort, Nouvelle-Aquitaine
Intégrateur d'exploitation / Ingé de Production Niort La société devra fournir les prestations suivantes: integration des applications SI Maafvie Outils : Jenkins Outil de build et d’intégration des composants Jira outil de ticketing Artifactory gestion d’artefacts SVN (Git) Gestionnaire de sources contenant les fichiers et applications à déployer XLD (Digital AI) Déploie les livrables « .dar » sur tous les environnements XLR Orchestrateur des process d’intégration Connaissances : langage shell python (java) Objectifs et livrables La société devra fournir les prestations suivantes: integration des applications SI Maafvie Outils : Jenkins Outil de build et d’intégration des composants Jira outil de ticketing Artifactory gestion d’artefacts SVN (Git) Gestionnaire de sources contenant les fichiers et applications à déployer XLD (Digital AI) Déploie les livrables « .dar » sur tous les environnements XLR Orchestrateur des process d’intégration Connaissances : langage shell python (java) Compétences demandées Compétences Niveau de compétence DYNATRACE Confirmé Full Stack Python Confirmé Script Shell Confirmé JENKINS Confirmé Bmc Control-m Confirmé
Mission freelance
Expert Kibana / Data Visualisation (F/H)
CELAD
Publiée le
Bitbucket
CI/CD
Data visualisation
12 mois
550-590 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Expert Kibana / Data Visualisation pour intervenir chez un de nos clients dans le secteur banacaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et maintenir des dashboards avancés sous Kibana pour assurer une visibilité de bout en bout des systèmes et des flux de données - Transformer des données issues de Elasticsearch en visualisations claires, pertinentes et actionnables - Mettre en place des visualisations interactives (filtres, drill-down, agrégations) pour faciliter l’analyse et la prise de décision - Analyser les données collectées via Filebeat et Logstash afin d’en maximiser la valeur - Exploiter les fonctionnalités de Machine Learning de Kibana pour détecter anomalies, tendances et signaux faibles - Collaborer avec les équipes techniques pour optimiser les requêtes, les index et la qualité des données - Traduire les besoins métiers en dashboards pertinents et exploitables - Assurer la fiabilité, la cohérence et la qualité des données présentées
Mission freelance
Software Engineer (H/F) – Python Backend / GenAI / GCP
HOXTON PARTNERS
Publiée le
API REST
GenAI
Google Cloud Platform (GCP)
12 mois
Paris, France
Dans le cadre du renforcement d’une plateforme applicative innovante orientée IA générative, nous recherchons un Software Engineer disposant d’une expertise poussée en développement backend Python et en intégration de services GenAI au sein d’environnements cloud modernes. La mission s’inscrit dans un contexte de développement et d’industrialisation de la couche applicative IA, avec un fort niveau d’exigence sur la qualité logicielle, la scalabilité, la sécurité, la performance et l’intégration dans une architecture existante orientée microservices. Le consultant interviendra sur la conception, le développement et l’évolution de services backend exposés via API, avec un enjeu important autour de l’intégration de composants IA avancés, de la gestion des problématiques synchrones / asynchrones, ainsi que de l’évolution du socle agentique, notamment dans le cadre d’une migration de LangChain vers un framework Google. Responsabilités Concevoir, développer et faire évoluer des microservices backend en Python Exposer des APIs via FastAPI Développer des services robustes en environnement synchrone et asynchrone Concevoir et maintenir des APIs REST performantes et sécurisées Structurer les modèles de données avec Pydantic v2 Intégrer des services IA / GenAI dans l’architecture applicative existante Participer à la conception et à l’orchestration d’architectures microservices Contribuer à la migration et à la rationalisation du framework agentique (transition depuis LangChain vers un framework Google) Intégrer des LLMs via Vertex AI, OpenAI ou Anthropic Mettre en œuvre les bonnes pratiques de sécurité (authentification, validation, filtrage de contenu) Optimiser les performances (haut débit, faible latence) Participer à l’industrialisation des développements (CI/CD, cloud-native)
Offre d'emploi
Software Engineer GCP (H/F)
WINSIDE Technology
Publiée le
Automatisation
Azure
Google Cloud Platform (GCP)
6 mois
45k-48k €
400-450 €
Lille, Hauts-de-France
Informations pratiques Démarrage : 04/05/2026 Fin de mission : 30/10/2026 Présentiel : 2 jours par semaine Astreintes : oui Contexte du projet Dans le cadre d’un programme stratégique de transformation cloud pour un grand groupe international , nous recherchons un(e) DevOps – niveau expert pour intervenir sur une plateforme interne de type Landing Zone . Cette plateforme permet aux équipes internes de provisionner en toute autonomie des environnements cloud sécurisés (principalement GCP , mais aussi Azure ) afin d’y déployer leurs applications rapidement, tout en respectant les standards du groupe. Objectifs de la mission Vous contribuerez au développement et à l’évolution des produits cloud et des outils d’automatisation des infrastructures réseau et sécurité, avec pour objectifs : la mise à disposition de plateformes cloud self-service l’automatisation complète des déploiements d’infrastructures le renforcement de la sécurité et de la fiabilité des environnements cloud Vos missions 🔧 Développement Concevoir et développer des composants logiciels backend et frontend Implémenter des APIs et services backend en Python Développer des interfaces frontend (Vue.js) Concevoir et maintenir des solutions Infrastructure as Code (Terraform) Participer au développement et à l’évolution des Landing Zones cloud Développer des outils d’automatisation réseau (firewall, opérations réseau) 🧱 Architecture & Conception Répondre aux besoins métiers via des solutions cloud natives Concevoir des architectures cloud sécurisées, automatisées et scalables Participer aux revues d’architecture et de code Définir et faire évoluer les standards techniques et bonnes pratiques ✅ Qualité & Tests Développer et maintenir des tests unitaires et automatisés Garantir la qualité, la performance et la maintenabilité du code Identifier et corriger les anomalies et régressions 🔄 Maintenance & Support Assurer la maintenance corrective et évolutive des solutions existantes Accompagner les équipes techniques dans l’utilisation des plateformes Participer aux astreintes liées au projet
Offre d'emploi
ANALYSTE DE TEST TECHNIQUE H/F
Aldemia
Publiée le
Automatisation
CI/CD
Cucumber
42k-50k ¤
Levallois-Perret, Île-de-France
En tant qu ’Analyste de Test Technique (H/F) vous participez au quotidien à la conception et au perfectionnement des applications de votre client final. A la recherche de nouveaux challenges, vous faites face aux problématiques en répondant, avec votre expertise, aux défis liés à l’intégration de nouvelles fonctionnalités, la régression, l’accessibilité, etc. Pour y parvenir, les missions qui vous seront confiées sont : Valider la pertinence et la réussite de l'automatisation dans le contexte défini Sélectionner et déployer les différentes méthodologies d'automatisation (approche, outils, bouchon, api, …) adaptées à l'écosystème Assurer l'analyse d'impact, l'évaluation des charges de travail et de maintenance Maîtriser plusieurs méthodologies de test et outils de gestion des tests et anomalies (Jira, Azure Devops, ALM, Squash, TFS, …) Travailler avec les équipes de devs concernant la chaîne d’intégration continue (CI/CD)
Mission freelance
Data Business Analyst (H/F)
Insitoo Freelances
Publiée le
Confluence
JIRA
Python
2 ans
370-420 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Business Analyst (H/F) à Lyon, France. Contexte : Entité chargée de la Supervision et de la Gestion des Incidents dans le but de garantir la performance en production. Le profil recherché intègrera l’équipe en charge du suivi des performances en production, de la télédistribution des logiciels sur le parc, de la création de tableaux de bords. Date de début souhaitée : 04/05/2026 Du fait de la montée en compétence la prestation est attendue sur une durée relativement longue. Les missions attendues par le Data Business Analyst (H/F) : Activité principale Le profil recherché sera en charge de : • Suivre et analyser un ou plusieurs indicateur(s) de performance à la maille nationale et DR, expliquer leurs variations et mettre en place des actions d'amélioration associées • Réaliser des tableaux de bords de pilotage ou opérationnels de suivi de performance • Consolider les données et reporter les analyses associées aux variations de performances • Maîtriser le fonctionnement • Suivre l'ensemble des évènements de production • Préparer, animer et/ou représenter la production dans les différents comités • Comprendre, analyser, préparer, construire et animer des points autour de(s) l’indicateur(s) de performance avec les différentes parties prenantes. • Investiguer de manière autonome des anomalies ou signaux faibles dans les données, en identifiant des pistes d’analyse non prévues initialement • Challenger les processus existants et proposer des axes d’optimisation basés sur les analyses réalisées • Identifier et activer des leviers d’amélioration en coordination avec des équipes contributrices (métiers / techniques) • Assurer un rôle de référent sur l’indicateur en étant force de proposition sur son évolution (méthode de calcul, périmètre, pertinence) • Contribuer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe Activité secondaire • Suivi de performance dans le cadre de pilote et expérimentation • Suivi de performance sur des périmètres dédiés en fonction des actualités de production • Capitalisation et partage de connaissances (rédaction documentaire) • Rédiger et diffuser le reporting cross chaine quotidien Stack technique de l'équipe : Tableau Desktop, JIRA / Confluence, Suite Office (notamment Excel, Powerpoint et Teams), SQL et Python
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Mission freelance
Data Engineer
DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks
1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Offre d'emploi
Ingénieur Support DevOps – Plateforme d’Orchestration
CBX Conseil ( CBX Group )
Publiée le
Administration linux
Python
Support technique
2 ans
40k-50k €
400-550 €
Massy, Île-de-France
Contexte de la mission Dans le cadre du support d’une plateforme interne stratégique, nous recherchons un Ingénieur Support DevOps pour accompagner les utilisateurs IT sur un orchestrateur interne et un portail de services associés .Cette plateforme permet la commande et la gestion automatisée de ressources IT. Objectifs de la mission Assurer le support technique des utilisateurs du portail et de l’orchestrateur Analyser et diagnostiquer les incidents (provisionnement, CI/CD, usage) Débloquer les situations et proposer des solutions de contournement Identifier et remonter les anomalies aux équipes de développement Assurer le suivi des incidents jusqu’à résolution Contribuer à la documentation et à l’amélioration continue Garantir une expérience utilisateur fluide et efficace
Offre d'emploi
ADMINISTRATEUR/INTEGRATEUR (H/F) PRE EMBAUCHE
GROUPE ALLIANCE
Publiée le
Ansible
Bash
DNS
35k-42k €
Toulouse, Occitanie
ACCROCHE SI TU AIMES ASSEMBLER LES PIÈCES POUR CRÉER DES SYSTÈMES PERFORMANTS, CE POSTE N’ATTEND QUE TOI ... CE QUE TU RECHERCHES : Garantir l’intégration fluide et efficace des applications Travailler sur des projets critiques en assurant la compatibilité et la performance des systèmes Relever des défis techniques pour optimiser les échanges entre applications et infrastructures Êre au cœur des déploiements et assurer le bon fonctionnement des applications métier Alors rejoins une équipe où ton expertise en intégration applicative sera essentielle ! Au sein d’un acteur majeur du secteur du retail tu participeras à l’administration de parc de serveurs Redhat/Windows, de plusieurs infrastructures Zabbix,de clusters Kubernetes, de plateformes de virtualisation et d'automatisation , de bases de données ainsi que la creation de pipelines CI/CD sous Gitlab Analyse des besoins et spécifications techniques, tu réaliseras Déploiement et configuration des applications, tu piloteras Optimisation des flux entre les systèmes, tu assureras Automatisation des processus d’intégration, tu mettras en place Gestion des incidents et support aux équipes, tu coordonneras Sécurisation des échanges et des interactions applicatives, tu renforceras Veille technologique et anticipation des évolutions SI, tu effectueras QUI TU ES : Diplômé(e) en informatique, systèmes et applications ou équivalent Tu justifies d’une expérience de 6ans minimum en intégration applicative Maîtrise des environnements techniques hétérogènes (Linux, Windows, bases de données), tu maîtrises les scripts (Python , Bash, Powershell), les outils d’intégration continue et d’automatisation ( Ansible) Expertise en Linux (Redhat), Windows, MariaDB, Postgresql,Python, Bash ,PowerShell, Ansible, DNS,Docker, HTTP, LDAP, SNMP, SPLUNK, TCP/IP, Zabbix AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Méthodique, tu assures une intégration fluide et sans accroc Pragmatique, tu trouves des solutions adaptées aux contraintes techniques Communicant(e), tu facilites la collaboration entre équipes Dev et Ops Autonome, tu es capable de gérer plusieurs intégrations en parallèle Réactif(ve), tu interviens rapidement en cas de dysfonctionnement Curieux(se), tu restes en veille sur les nouvelles solutions d’intégration Orienté(e) performance, tu optimises chaque déploiement pour maximiser l’efficacité des systèmes
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM
3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Offre d'emploi
DATA SCIENTIST NLP / IA GEN pour développement de projets IA Gen
SMILE
Publiée le
AI
API REST
Méthode Agile
3 mois
40k-57k €
400-500 €
Île-de-France, France
Bonjour, Dans le cadre du centre d'expertise de la direction Data & IA, nous recherchons un(e) data scientist de 3 à 6 ans d'expérience. Il s'agira d'intervenir sur divers sujets : contribuer à l'analyse des use cases remontés par les entités du groupe , contribuer potentiellement à des benchmarks, prendre en charge une application d'évaluation RAG , contribuer à l'évaluation de prompt (équipe Expertise Transverse du Centre d'Expertise Data Science composée de 9 data scientists dont les projets DS s'articulent autour des outils NLP, Search, IA Générative). Les tâches à réaliser sont : - Analyse des cas d'usages - Cadrage, participation aux développement et suivi des projets - Prompt engineering - recommandation méthodologique - Evaluation des performances liées à l'utilisation de LLM, RAG - Partage autour de la veille technologique -Classification des Prompt. -Mutualiser cas d’usage - analyse des verbatim. -Tester et challenger la solution interne Contexte : Vous allez intégrer l'équipe qui centralise l'analyse des besoins ou des cas d'usage IA Gen. Il faut soit analyser la faisabilité des cas remontés , soit contribuer à des tests sur un périmètre restreint. Par ailleurs, il faut suivre l'usage d'une application d'évaluation RAG afin de répondre aux sollicitations utilisateurs. Expertises : - expert python - containerisation - CICD/MLOPS - API REST - Méthodes agiles - éventuellement groovy - LLM, NLP - VLLM, TensorRT > Python, maching learning - LLM, TGI, Aphrodite Engine, etc. Une expérience dans le domaine bancaire serait un plus
Offre d'emploi
Développeur-se confirmé-e : data, IA et logiciel (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Application web
38k-40k €
Pau, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Senior Python Engineer – AI Agents & Automatisation (H/F)
Tenth Revolution Group
Publiée le
API REST
Python
12 mois
350-500 €
Lille, Hauts-de-France
🎯 Contexte de la mission Dans le cadre d'une transformation IA au sein d'un grand groupe retail européen , nous recherchons un Senior Python Engineer spécialisé en développement d'agents autonomes via OpenAI Agents SDK pour concevoir et industrialiser des workflows intelligents au cœur d'un SI complexe. 🛠️ Missions principales Conception et développement d' agents autonomes multi-steps avec OpenAI Agents SDK Intégration des agents dans les APIs internes et le SI existant (ERP, PIM, outils métier) Automatisation de processus métier complexes : orchestration des workflows, gestion des erreurs, supervision des exécutions Développement de services backend robustes en Python / FastAPI Participation aux choix d'architecture IA : patterns d'agents, handoffs, outils, guardrails Rédaction de code testé, documenté et orienté production Collaboration avec les équipes produit, data et infra 🔎 Profil recherché 5+ ans d'expérience en développement Python backend Expérience concrète avec OpenAI Agents SDK ou frameworks similaires (LangChain, LangGraph, CrewAI) Maîtrise des API REST et des patterns d'intégration SI Solide culture production-ready : tests, monitoring, gestion des erreurs, observabilité À l'aise dans un environnement grand compte en transformation Autonomie, rigueur et capacité à livrer rapidement
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance en portage : quelle société choisir
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
713 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois