L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 963 résultats.
Offre d'emploi
Ingénieur Observabilité (Grafana / Prometheus) -
Publiée le
Grafana
Prometheus
6 mois
La Défense, Île-de-France
Télétravail partiel
Intitulé du poste : Expert Observabilité Contexte : Dans le cadre du renforcement de notre dispositif d’observabilité, nous recherchons un profil technique et transverse capable d’accompagner nos équipes et nos clients dans la mise en place et l’exploitation d’outils d’observabilité avancés. Missions principales : • Concevoir, déployer et configurer des solutions d’observabilité, incluant notamment Grafana et Prometheus (éventuellement en cluster). • Définir et mettre en œuvre les bonnes pratiques d’instrumentation et de monitoring au sein des équipes projets. • Accompagner les équipes dans la création de dashboards Grafana personnalisés et fonctionnels. • Aider les équipes projets à définir leurs indicateurs clés de performance (KPI) pertinents selon leurs besoins métiers et techniques. • Garantir la cohérence, la qualité et la fiabilité des métriques collectées et diffusées. Compétences et profil recherché : • Expérience démontrée dans l’accompagnement d’équipes ou de clients sur des sujets d’observabilité. • Maîtrise de Grafana, Prometheus et des mécanismes de monitoring modernes. • Capacité à travailler en transverse avec différents types d’équipes (techniques, projets, métiers). • Sens de la pédagogie, capacité à vulgariser des sujets techniques. • Rigueur, autonomie et force de proposition. Nature du rôle : Ce rôle comporte une forte dimension technique, tout en nécessitant une posture de facilitateur et d’accompagnateur auprès des équipes internes et externes
Offre d'emploi
Architecte Data / Data Platform Architect (H/F)
Publiée le
Apache Kafka
Apache NiFi
AWS Cloud
12 mois
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de transformation Data, nous recherchons un Architecte Data pour consolider et faire évoluer un socle data autour d’une architecture cible fiable, sécurisée et évolutive. Vous interviendrez en support des équipes existantes pour valider les choix d’architecture, garantir leur conformité technique et fonctionnelle, et mettre en place les mesures de sécurité adaptées à la protection des données sensibles. Missions principales : Valider, sécuriser et faire évoluer l’architecture de la plateforme Data (Data Lake, Data Warehouse, Data Mesh). Garantir la cohérence, la robustesse et la sécurité des flux de données entre les systèmes. Accompagner les équipes projets dans le choix, la conception et l’implémentation des solutions techniques. Collaborer avec les architectes, le RSSI, le DPO et les équipes cybersécurité pour intégrer les contrôles nécessaires. Mettre en œuvre une approche secure by design (chiffrement, accès, observabilité, supervision). Assurer la documentation, la traçabilité des décisions et le partage des bonnes pratiques. Réaliser une veille technologique active et proposer des améliorations continues. Apporter des retours d’expérience sur des architectures et solutions déployées dans d’autres contextes clients.
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Offre d'emploi
Développeur Python – Automatisation
Publiée le
Apache Airflow
CI/CD
Docker
40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
Offre d'emploi
Data Product Owner
Publiée le
Azure Data Factory
Data cleaning
IA
3 ans
40k-45k €
400-610 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Détails pratiques Poste : Data Product Owner (3 postes) Expérience requise : 6 ans minimum TJM d’achat max : 600 € Localisation : Issy les Moulineaux (92) Date limite de réponse : 05/12/2025 Date de début de mission : 05/01/2026 Durée de la mission : 1 an Description du client Notre client est une entreprise de grande envergure opérant dans le secteur des services . Il compte un grand nombre d'employés et est reconnu pour son expertise dans son domaine. Mission Dans le cadre du déploiement de la roadmap DATA/IA pour la , notre client cherche à être accompagné par un consultant pour gérer les projets DATA/IA de bout en bout. Le consultant sera responsable de la mise en œuvre de projets de valorisation des données, assurant la synergie entre les équipes métiers et les équipes de développement. Il sera également responsable du budget alloué à ses projets, du suivi de la réalisation et de la mise en place des boucles courtes de feedback clients. Compétences requises Expérience confirmée en gestion de produits (Product Ownership, Product Management) Très bonne maîtrise des frameworks Agile et des cérémonies associées Expérience en gestion budgétaire et calcul de ROI Compréhension des bases technologiques pour les applications Data & IA Orienté clients, pédagogue Rigueur et capacité de formalisation et de communication Culture du résultat et orientation business
Mission freelance
data scientist
Publiée le
Data science
12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
Offre premium
Mission freelance
TECH LEAD ENGINEER (AZURE/DATABRICKS) H/F
Publiée le
Azure Data Factory
CI/CD
Databricks
3 mois
500-580 €
La Défense, Île-de-France
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Tech Lead/Data Engineer spécialisé Databricks / Azure H/F . Vous piloterez techniquement une squad transverse de 5 à 10 personnes, garantirez la qualité logicielle, la cohérence d’architecture, la performance des pipelines data et la bonne mise en production. Vous jouerez un rôle clé dans la conception, l’optimisation et l’industrialisation de produits data à grande échelle dans un environnement Cloud Azure et Databricks exigeant. Vous animerez les rituels techniques, accompagnerez les membres de la squad et assurerez la communication fluide avec les parties prenantes métier et IT. Objectif et livrables: Architectures data (ingestion, transformation, serving) validées et documentées. Pipelines Databricks productisés, monitorés, optimisés. Modules réutilisables / librairie d’ingénierie data. Pipelines CI/CD + scripts Terraform prêts pour déploiement. KPIs mensuels (qualité données, SLA, latence, incidents). Plan de montée en compétences de la squad. Compétences attendues : Maîtrise avancée de Databricks (jobs, clusters, notebooks, optimisation). Expertise PySpark pour traitements batch & streaming. Excellente pratique Python et bonne connaissance Java . Très bonne maîtrise Azure Data Services : ADLS, Blob, Data Factory, Synapse, Event Hubs. Pratique confirmée de Terraform , CI/CD (GitHub Actions, Azure DevOps). Compétences en monitoring (Datadog, Prometheus, Log Analytics), tests automatisés, code review. Connaissances SQL et bases NoSQL. Architecture data, bonnes pratiques de sécurité, RBAC, performance tuning.
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Mission freelance
Architecte ServiceNow CMDB - Data Foundations H/F
Publiée le
CMDB
Data quality
ServiceNow
12 mois
700-800 €
Paris, France
Télétravail partiel
Compétences attendues Expertise avérée en ServiceNow : ITSM, ITOM, CMDB, Discovery, CSDM, Data Foundations. Maîtrise des mécanismes d’identification, de réconciliation, de population et de gestion du cycle de vie des CIs. Solide expérience en architecture CMDB, modélisation, normalisation et gouvernance des référentiels IT. Réelle capacité à analyser, structurer et sécuriser un modèle de données complexe. Expérience confirmée en conduite de comités, communication avec des équipes internationales et coordination transverse. Capacité à clarifier les impacts ITSM/ITOM d’une évolution de la CMDB. Connaissance des enjeux de conformité, d’audit et de sécurité autour des données techniques. Aisance rédactionnelle et sens de la pédagogie. Anglais professionnel.
Offre d'emploi
DATA SCIENTIST
Publiée le
Natural Language Processing (NLP)
6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Dans le cadre du développement de nos projets IA, nous recherchons un Data Scientist expérimenté maîtrisant Vertex AI et les technologies modernes de modélisation et d’industrialisation. Missions : Développement et entraînement de modèles ML/IA (supervisé, non supervisé, deep learning). Utilisation avancée de Vertex AI (training, pipelines, model registry, monitoring). Participation à la construction de solutions génératives ou prédictives (LLM, NLP, time series, recommendation…). Préparation, exploration et structuration de datasets à grande échelle. Déploiement, optimisation et suivi des modèles en production. Compétences recherchées : Très bonne maîtrise de Python , Scikit-Learn, TensorFlow ou PyTorch. Expertise Vertex AI (training, notebooks, pipelines, endpoints). Connaissance des environnements GCP (BigQuery, Storage, Pub/Sub). Solides compétences en statistiques, math appliquée et optimisation. Expérience avec LangChain / LangGraph / LLM (souhaitée). Profil attendu : 3 à 8 ans d’expérience en Data Science ou ML Engineering. Capacité à vulgariser et à proposer des solutions adaptées au besoin métier. Forte autonomie et sens du delivery.
Mission freelance
Data Scientist Sénior - Mi-temps
Publiée le
CI/CD
Large Language Model (LLM)
MLOps
6 mois
Paris, France
Télétravail partiel
Nous recherchons un·e Data Scientist Senior pour rejoindre une équipe Retail composée de 5 Data Scientists, afin de contribuer à l’optimisation et au développement de solutions IA dédiées à l’amélioration du ciblage clients et à la performance des produits. Missions principales Suivre techniquement le développement de solutions data & IA orientées Retail (segmentation, ciblage, scoring…). Participer à l’amélioration continue des modèles existants : recommandations produits, recherche produits, sentiment analysis, scoring, etc. Proposer des approches robustes pour optimiser la performance des modèles et la qualité des livrables. Collaborer avec les équipes métiers pour comprendre les enjeux et traduire les besoins en solutions concrètes. Réaliser la revue de code, assurer la qualité technique et contribuer aux bonnes pratiques. Compétences requises Expertise en développement, déploiement et revue de code (pratiques clean code, MLOps, CI/CD). Expérience solide en prompting et utilisation de modèles LLM. Maîtrise des environnements Cloud, particulièrement Google Cloud Platform et ses outils associés (Dataproc, BigQuery, Vertex AI). Capacité à comprendre les besoins business et à y répondre efficacement via des solutions data performantes. Autonomie, rigueur, sens du collectif, capacité à évoluer dans un environnement agile.
Mission freelance
Expert Réseau LAN / WAN / WIFI (N3)-ile de France (H/F)
Publiée le
LAN
WAN (Wide Area Network)
WIFI
1 an
400-520 €
Île-de-France, France
Dans le cadre d’une mission stratégique au sein d’une grande direction IT, nous recherchons un consultant N3 LAN – WAN – WIFI ayant une solide expertise sur les infrastructures réseau de grande envergure. 🎯 Objectif de la mission Garantir la gestion, la maintenance et l’évolution des solutions LAN / WAN / WIFI, intervenir sur l’incidentologie avancée, piloter des projets techniques, et assurer la coordination avec les équipes locales ainsi que le partenaire opérant le support N1/N2. 🛠 Compétences techniques recherchées ✔ LAN & WIFI : Cisco, Aruba, Juniper (CCNA/CCNP/WLE) ✔ Authentification : Cisco ISE ✔ Firewalls : Palo Alto (requis) – Fortinet (apprécié) ✔ Outils : Cisco Prime Infrastructure, Airwave (plus) ✔ RF : Spectrum / Survey WIFI avec Ekahau ✔ Réseaux : DHCP, DNS, DNA, SDA, Fabric ✔ Méthodes : Agile , ITIL ✔ Anglais technique (impératif) 📌 Responsabilités principales 🔹 Gestion et résolution d’incidents LAN / WAN / WIFI (N3) 🔹 Analyse avancée & troubleshooting 🔹 Coordination avec mainteneur & équipes locales 🔹 Incident management et suivi des prestataires 🔹 Projets réseau & évolutions d’infrastructure 🔹 Développement scripts / apps / outils internes 🔹 Rédaction des livrables techniques en anglais 🔹 Participation aux cérémonies Agile 📄 Livrables attendus 📘 Documents d’architecture 📘 Procédures opérationnelles 📘 Documents d’exploitation 📘 Comptes-rendus de réunions 📘 Supports utilisateur et supports équipes
Mission freelance
Chef de Projet Data / BI
Publiée le
BI
Data management
6 mois
550-580 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet BI / Data stratégique, notre client final basé à Paris recherche un Chef de Projet BI / Data freelance pour piloter la mission et assurer le lien entre les équipes internes et l’éditeur Suadeo . Le consultant interviendra comme véritable chef d’orchestre du projet, garantissant la bonne organisation des travaux, le respect des délais et la qualité des livrables. Missions principales Jouer le rôle de Chef de Projet BI / Data côté client final Assurer l’interface entre le client et l’éditeur Suadeo Organiser et animer les ateliers métiers et techniques Piloter le planning, le delivery et les priorités projet Coordonner les différents interlocuteurs (métiers, IT, éditeur) Suivre l’avancement, identifier les risques et proposer des actions correctives Arbitrer les sujets opérationnels et faciliter les échanges Assurer le reporting projet auprès des parties prenantes Gérer les allers-retours avec l’éditeur sur les spécifications, évolutions et correctifs Profil recherché Expérience confirmée en gestion de projets BI / Data Solide compréhension des environnements Data / BI Très bon relationnel et capacité à interagir avec des équipes métiers et techniques Capacité à structurer, organiser et piloter des projets complexes Autonomie, rigueur et sens des priorités
Offre d'emploi
Lead data (H/F)
Publiée le
40k-45k €
Lille, Hauts-de-France
Télétravail partiel
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Offre d'emploi
Data engineer (H/F)
Publiée le
35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Mission freelance
Développeur Service Cloud
Publiée le
Big Data
Data management
Machine Learning
1 an
Lille, Hauts-de-France
Télétravail partiel
L’objectif de la mission est d’effecteur la maintenance corrective et évolutive de l'application Salesforce Service Cloud au sein du SI de notre client. - Gestion des incidents de production - Analyse et correction de problèmes - Développement de correctifs et/ou d'évolutions - Rédaction de spécifications fonctionnelles et techniques - Conception de solution technique Expertises spécifiques : Salesforce Service Cloud Maitrise de l’anglais Compétences rédactionnelles Maitrise du SQL Bon niveau de communication (orale et écrite) Fonctionnement mode proiet (Cycle V et agile : scrum) Capacité à gérer des sujets divers en parallèle sur des problématiques fonctionnelles différentes liées aux métiers de la banque. Bonne capacité de compréhension des besoins fonctionnels, d’écoute et de communication, bon esprit d’analyse
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3963 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois