Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 711 résultats.
Offre d'emploi
POT9013 - Un Ingénieur Réseaux Confirmé Habilitable > à 5 ans d’expérience Sur Paris
Almatek
Publiée le
Python
40k-50k €
Paris, France
Almatek recherche pour l'un de ses clients, Un Ingénieur Réseaux Confirmé Habilitable > à 5 ans d’expérience Sur Paris. Activités : Les principales missions seront de : Sous l’autorité du responsable de pôle de répondre à l’ensemble des besoins réseaux. Vérifier la cohérence globale de l’architecture réseau lors de la mise en œuvre des solutions techniques de réseau demandées. Participer à la gestion des problèmes, gérer les demandes de changements et traiter les incidents « post déploiement » des nouveaux provisionnements. Diagnostiquer les causes de dysfonctionnement et proposer des corrections et des solutions de contournement. Collaborer avec les équipes réseau et systèmes de (ISS/ETI) et les membres des autres entités du département. Veiller au respect des normes et standards qu’ils préconisent. Participer activement au maintien de la qualité des documents techniques servant de support à l’activité. Rédiger toute documentation qui permette d’assurer un partage des connaissances et autres bonnes pratiques avec l’ensemble de l’équipe réseau.
Offre d'emploi
AI Engineer
VISIAN
Publiée le
Agent IA
Python
1 an
40k-75k €
400-800 €
Paris, France
Objet de la prestation Le bénéficiaire recherche 3 consultants AI Engineer (junior à senior) disposant d’une double compétence en intelligence artificielle générative et en développement logiciel. Positionnement Profils capables de développer des solutions IA en production, d’intégrer des LLM dans des architectures applicatives et de contribuer à leur industrialisation et à leur monitoring. Développement de solutions IA (chatbots, agents, RAG, etc.) en Python Intégration et orchestration de LLM via des frameworks type LangChain / LangSmith Conception d’architectures applicatives hybrides (IA + backend classique) Participation à la mise en place de pipelines de traitement de données et d’inférence Implémentation de mécanismes d’ observabilité (monitoring, logs, métriques, tracing) Contribution aux pratiques AI Ops / MLOps : gestion des modèles versioning déploiement monitoring en production Collaboration avec les équipes métiers, data et IT dans un environnement Agile Participation aux phases de tests, validation et amélioration continue des modèles
Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse
KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python
1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
Offre d'emploi
Chef de projet informatique - Data Analyse F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
DevOps
Git
Saint-Nazaire, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Staff Engineer Python - Telecom - Paris H/F
EASY PARTNER
Publiée le
FastAPI
Python
SQL
12 mois
70k-90k €
550-650 €
Paris, France
Missions Principales Prendre le leadership technique du backend de notre système d'information. Comprendre et optimiser les processus métiers complexes comme la facturation tierce et le raccordement à la fibre. Définir et piloter avec l'équipe l'architecture de notre système distribué. S'engager dans du développement "hands on" avec Python et assurer la qualité et résilience du code. Annexes Initier et renforcer les bonnes pratiques de développement et de mise en production. Proposer et implémenter des méthodes d’exploitation qui permettront aux équipes de développement d’opérer efficacement en production.
Offre d'emploi
Site Reliability Engineer / SRE (Lille - 3j de présentiel par semaine non négociable)
ANDEMA
Publiée le
Datadog
Github
Google Cloud Platform (GCP)
12 mois
50k-65k €
500-530 €
Lille, Hauts-de-France
Contexte de la mission Renforcer l'équipe Opérations et créer une fonction SRE structurante au sein de l’organisation. Nous recherchons un·e SRE senior capable d’incarner et de structurer la pratique SRE, avec une approche hybride RUN → BUILD : Gérer le RUN (gestion des incidents, traitement des tickets, maintien en conditions opérationnelles) Transformer les irritants récurrents en projets d’amélioration Automatiser les opérations pour réduire le volume de tickets et éviter leur réapparition Utiliser les problématiques du RUN comme levier pour impulser des projets BUILD (infra, performance, sécurité, fiabilité) L’objectif : faire du RUN un moteur d’amélioration continue, en collaboration étroite avec les équipes infra et développement. ️ Missions principales Garantir la disponibilité, performance et scalabilité de la plateforme Gérer les incidents de bout en bout (analyse des causes racines, post-mortem, correctifs, prévention) Structurer et améliorer l’ observabilité et la qualité de service Automatiser les opérations et le support (approche software & IA pour les Ops) Réduire la dette opérationnelle via des chantiers techniques structurants Collaborer étroitement avec les équipes Dev, DevOps et Sécurité Stack & environnement Cloud : GCP Orchestration : Kubernetes Systèmes : Linux Langages & IaC : Python, Terraform, Java Monitoring : Datadog CI/CD : GitHub, GitHub Actions Réseaux & sécurité : WAF, protection DDoS Modalités : Localisation : Lille (accessible en transports) Durée de la mission : longue, plusieurs années
Mission freelance
Administrateur de Bases de Données (DBA)
Ness Technologies
Publiée le
AWS Cloud
Azure
Bash
6 mois
Île-de-France, France
Responsabilités principales Déployer et gérer des systèmes de bases de données en cloud, en garantissant un contrôle d'accès sécurisé et efficace. Élaborer, gérer et optimiser les politiques et procédures relatives aux bases de données afin d'assurer la conformité aux normes ANSSI et aux autres bonnes pratiques de sécurité. Préparer et maintenir la documentation nécessaire aux audits, notamment pour répondre aux exigences de l'ANSSI. Agir en tant qu'interlocuteur unique (SPOC) pour tous les sujets liés aux bases de données, en coordonnant avec les différentes équipes pour traiter les problématiques de sécurité. Réaliser des audits de sécurité réguliers et des évaluations de vulnérabilités afin d'identifier et de corriger les failles potentielles des systèmes de bases de données. Développer et maintenir des plans de réponse aux incidents pour traiter rapidement les violations de sécurité liées aux bases de données. Collaborer étroitement avec les équipes informatiques et sécurité pour aligner les opérations sur les objectifs de l'organisation. Assurer la conformité aux réglementations et bonnes pratiques en matière de cybersécurité. Accompagner et former les membres de l'équipe sur les bonnes pratiques et les mesures de sécurité liées aux bases de données. Maintenir les services de bases de données en production en mesurant et surveillant la disponibilité, la latence et la santé globale des systèmes. Piloter la réponse aux incidents liés aux bases de données de manière efficace et durable. Faire évoluer les systèmes de bases de données de façon pérenne via l'automatisation, en promouvant les changements améliorant la fiabilité et la sécurité. Rédiger un code hautement optimisé et fiable pour les solutions de bases de données. Développer et appliquer de manière proactive les connaissances métier liées aux workflows, politiques, configurations et contraintes des bases de données. Soutenir les processus essentiels liés aux bases de données tout en garantissant le respect des standards de qualité. Vos missions au quotidien Évaluer, planifier, concevoir et déployer une infrastructure de bases de données sous forme de solutions hautement disponibles et scalables pour soutenir les applications et services critiques. Rédiger et maintenir des scripts d'Infrastructure as Code (IaC) à l'aide d'outils tels que Terraform et Ansible pour automatiser le déploiement et la gestion des ressources de bases de données. Appliquer les normes ANSSI pour sécuriser les ressources de bases de données et effectuer des audits réguliers afin d'en assurer la conformité. Réaliser la planification de capacité et le dépannage des applications, produits, infrastructures et services de bases de données. Surveiller et observer les applications et l'infrastructure de bases de données. Exploiter des environnements de test selon les bonnes pratiques du secteur pour les pré-tests et les preuves de concept. Diagnostiquer et résoudre les incidents liés aux bases de données dans des environnements cloud. Participer aux tâches d'ingénierie cloud pour gérer et optimiser l'infrastructure, incluant les ressources réseau, les mesures de sécurité et l'automatisation. Participer aux rotations d'astreinte.
Offre d'emploi
Consultant Stambia / Semarchy xDI
ICSIS
Publiée le
ETL (Extract-transform-load)
JIRA
Python
1 an
35k-45k €
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Analyse des besoins - Conception des flux complexes avec Stambia / Semarchy xDI - Développement et configuration des flux en suivant les bonnes pratiques - Tests des développements - Documentation (spécifications techniques) - Maintenance des flux de données Mission basée sur la métropole lilloise avec télétravail hybride Compétences attendues : - Compétences approfondies en Stambia / Semarchy xDI - Solides compétences en SQL - Approche ETL / ELT - Scripting (Python, Shell, Beanshell ...) - JIRA - Architecture d'échange de données (batch, API REST ...) - Communication, travail en équipe
Offre d'emploi
Ingénieur Cybersécurité Cloud Azure - AWS (H/F)
SPIE ICS
Publiée le
AWS Cloud
Azure
Bash
12 mois
40k-45k €
400-450 €
Saint-Ouen-sur-Seine, Île-de-France
Nous recherchons pour notre client un(e) Ingénieur Cybersécurité Cloud Azure- AWS (H/F) Dans un environnement international, vous participez au renforcement continu de la posture de cybersécurité des environnements Cloud Azure et AWS. Vous intervenez sur le déploiement et la gestion des politiques de sécurité, ainsi que sur les initiatives d’automatisation et de remédiation. Missions principales Déployer et maintenir les Azure Policy pour assurer la conformité et la sécurité des ressources Azure. Contribuer à la création et à l’évolution des politiques de sécurité cloud adaptées aux besoins métiers et réglementaires. Participer aux projets d’automatisation de la Cloud Foundation, incluant la mise en place de scripts et d’outils pour la remédiation automatique. Collaborer avec les équipes Cloud, Sécurité et DevOps pour intégrer les bonnes pratiques de sécurité dans les processus CI/CD. Assurer une veille technologique et réglementaire sur les solutions de sécurité cloud Azure et AWS. Apporter un support technique et des recommandations pour améliorer la posture de sécurité globale
Mission freelance
Ingénieur DATA
HAYS France
Publiée le
Python
SQL
6 mois
350-510 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand acteur du retail, nous recherchons un Data Engineer capable d’intervenir sur des sujets variés autour de la Finance et de la Supply Chain . L’environnement est agile, pragmatique, peu structuré (non bancaire), nécessitant une vraie capacité d’adaptation et une forte autonomie. Missions 🔹 Développement & Intégration de données Conception et développement de pipelines Stambia Modélisation, optimisation et transformations de données dans Snowflake Développement et maintenance de modèles DBT (tests, documentation, exposures) Contribution aux bonnes pratiques : Git, qualité, tests, CI/CD 🔹 Finance Refonte de dashboards réseau Travaux autour du compte d’exploitation Amélioration de la fiabilité et disponibilité des données financières 🔹 Supply Chain Mise en place de KPI logistiques (WSR, SOTR…) Industrialisation des datasets existants ou à construire 🔹 Outils & Automatisation Participation au développement d’outils internes en Python / Streamlit (selon compétences)
Mission freelance
101528/Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Mission freelance
Data Engineer - Niort
Signe +
Publiée le
Azure
CI/CD
Data Lake
6 mois
350 €
Niort, Nouvelle-Aquitaine
Je cherche un profil Data ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d’une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d’erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d’amélioration continue -Participation active aux rituels agiles
Offre d'emploi
Data Scientist
VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch
1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
Offre d'emploi
Lead Developer Backend - Expertise IA & Agentique - Paris (H/F)
EASY PARTNER
Publiée le
C/C++
Data science
Go (langage)
71k-90k €
Paris, France
Contexte du poste Vous êtes passionné par l'innovation et l'intelligence artificielle ? Rejoignez une entreprise en pleine croissance spécialisée dans le développement de solutions numériques avancées, située en plein cœur de Paris. Notre département R&D, composé d'une équipe pluridisciplinaire de talents, cherche à agrandir ses rangs avec un Lead Developer Backend afin de piloter des projets stratégiques liés à l'IA et aux systèmes agentiques. Ce poste clé est à pourvoir pour renforcer notre expertise technique et soutenir notre croissance face aux défis complexes du numérique, tout en collaborant étroitement avec la direction et les équipes de base de données. Missions Missions principales - Concevoir, architecturer et implémenter notre nouveau système avec une forte composante IA. - Assurer le pilotage technique et l'accompagnement de l'équipe dans la réflexion et l'optimisation technologique. - Travailler en étroite collaboration avec la direction R&D pour aligner les objectifs stratégiques. - Prendre en charge l'intégralité du cycle de vie des projets, de la définition des besoins à leur déploiement. Missions annexes - Participer activement à la gestion des incidents et à l'amélioration continue. - Contribuer à la veille technologique et à l'innovation au sein de l'entreprise.
Offre d'emploi
Software Engineer GCP (H/F)
WINSIDE Technology
Publiée le
Automatisation
Azure
Google Cloud Platform (GCP)
6 mois
45k-48k €
400-450 €
Lille, Hauts-de-France
Informations pratiques Démarrage : 04/05/2026 Fin de mission : 30/10/2026 Présentiel : 2 jours par semaine Astreintes : oui Contexte du projet Dans le cadre d’un programme stratégique de transformation cloud pour un grand groupe international , nous recherchons un(e) DevOps – niveau expert pour intervenir sur une plateforme interne de type Landing Zone . Cette plateforme permet aux équipes internes de provisionner en toute autonomie des environnements cloud sécurisés (principalement GCP , mais aussi Azure ) afin d’y déployer leurs applications rapidement, tout en respectant les standards du groupe. Objectifs de la mission Vous contribuerez au développement et à l’évolution des produits cloud et des outils d’automatisation des infrastructures réseau et sécurité, avec pour objectifs : la mise à disposition de plateformes cloud self-service l’automatisation complète des déploiements d’infrastructures le renforcement de la sécurité et de la fiabilité des environnements cloud Vos missions 🔧 Développement Concevoir et développer des composants logiciels backend et frontend Implémenter des APIs et services backend en Python Développer des interfaces frontend (Vue.js) Concevoir et maintenir des solutions Infrastructure as Code (Terraform) Participer au développement et à l’évolution des Landing Zones cloud Développer des outils d’automatisation réseau (firewall, opérations réseau) 🧱 Architecture & Conception Répondre aux besoins métiers via des solutions cloud natives Concevoir des architectures cloud sécurisées, automatisées et scalables Participer aux revues d’architecture et de code Définir et faire évoluer les standards techniques et bonnes pratiques ✅ Qualité & Tests Développer et maintenir des tests unitaires et automatisés Garantir la qualité, la performance et la maintenabilité du code Identifier et corriger les anomalies et régressions 🔄 Maintenance & Support Assurer la maintenance corrective et évolutive des solutions existantes Accompagner les équipes techniques dans l’utilisation des plateformes Participer aux astreintes liées au projet
Offre d'emploi
Developpeur.euse bases de données
INFOTEL CONSEIL
Publiée le
Développement
Greenplum
Méthode Agile
3 ans
42k-46k €
300-380 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un pic d’activité, nous recherchons un(e) développeur(se) fortement orienté(e) bases de données, afin de renforcer une équipe existante sur des sujets de conception et de développement de traitements. Vous interviendrez au sein d’une équipe technique, en lien direct avec le Product Owner et les membres de l’équipe, sur des sujets liés au développement et à l’optimisation de traitements en base de données. La mission s’inscrit dans un environnement exigeant, nécessitant une forte maîtrise des bases de données, une capacité à traiter des volumes importants ainsi qu’une sensibilité aux enjeux de performance et de robustesse. Vos principales missions seront les suivantes : Analyser les demandes utilisateurs validées par le Product Owner Réaliser l’analyse fonctionnelle et technique des besoins Concevoir et développer des solutions orientées bases de données Développer des traitements en PL/pgSQL Réaliser des scripts Python orientés traitements de données Utiliser des scripts Shell si nécessaire Monter en compétence sur l’environnement Greenplum et l’écosystème existantTester, optimiser et mettre à disposition les livrables Garantir la qualité, la maintenabilité et la performance des traitements Produire un code documenté et conforme aux standards techniques Contribuer aux bonnes pratiques de l’équipe (revue de code, échanges techniques) L’environnement technique comprend notamment PostgreSQL, PL/pgSQL, Python, Shell, ainsi qu’une plateforme de type Greenplum. La mission est basée à Niort avec 2 jours de présence sur site par semaine.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance en portage : quelle société choisir
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
711 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois