Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 499 résultats.
Freelance

Mission freelance
Data Analyst expert Dataiku

Nicholson SAS
Publiée le
Dataiku
MySQL
Salesforce

6 mois
600 €
Paris, France
Entité : Banque Site : Paris ; 50% TT Prix d’achat max : 600 euros Date de démarrage : ASAP Date de fin : 31/12/2026 Mission : Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez mon client, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein de la banque. Vos activités principales consisteront à accompagner les métiers marketing - dans 30 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité du groupe (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU.
Freelance

Mission freelance
Senior Python Engineers orientés Data & Distributed Systems

Comet
Publiée le
AWS Cloud
Numpy
Pandas

6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance
CDI

Offre d'emploi
AMOA / Business Analyst Data - H/F

K-Lagan
Publiée le
AMOA
Cloudera
Informatica

1 an
45k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , proximité et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Consultant AMOA Data (F/H) pour rejoindre l’un de nos clients des secteurs Assurances basé entre à Niort . Missions principales : Accompagner les équipes métiers dans leurs usages autour de la data Réaliser des analyses et apporter du conseil sur les sujets data Assurer le support fonctionnel auprès des utilisateurs Participer à la production des livrables fonctionnels Concrètement : Recueillir et analyser les besoins métiers Conseiller les équipes sur l’exploitation des données Participer au cadrage et aux études de faisabilité des projets data Garantir la cohérence des solutions mises en place Réaliser les recettes fonctionnelles et suivre les anomalies Produire la documentation (spécifications, modélisation de données) Assurer le suivi de la qualité et la satisfaction des utilisateurs
CDD
CDI
Freelance

Offre d'emploi
Data Domain Owner Senior (H/F) | Secteur bancaire

OMICRONE
Publiée le
Apache Spark
Finance
Hadoop

1 an
Paris, France
Pour le compte de l’un de mes clients dans le secteur bancaire, je recherche un(e) Data Domain Owner Senior pour une mission stratégique avec un démarrage ASAP. Vos missions principales : Piloter et faire évoluer les frameworks data Contribuer à la digitalisation des données Assurer le contrôle de la qualité des données Faire le lien entre les équipes métiers et techniques Profil recherché : Expérience confirmée en environnement data Vision transverse métier / IT Capacité à piloter des sujets stratégiques
Freelance

Mission freelance
Data Ingénieur H/F

Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA

2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Freelance

Mission freelance
Data Steward H/F

Insitoo Freelances
Publiée le
JIRA
Microsoft Excel

2 ans
200-402 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward H/F à Hauts-de-France, France. Contexte : Garantir la structuration, la fiabilité et la performance des données produits intégrées au configurateur, afin d’assurer une expérience digitale cohérente, performante et adaptée aux besoins des marchés, des clients et des collaborateurs en magasins. Les missions attendues par le Data Steward H/F : 1. Structuration et gouvernance des données produits ● Collecter, analyser et structurer les données des produits configurables en lien avec les fournisseurs et le marché. ● Assurer l’intégration et la mise à jour des données produits et tarifaires (prix, options, évolutions de gamme), en garantissant leur fiabilité, leur cohérence et leur conformité aux règles métier. ● Être garant(e) de la qualité, de la cohérence et de la pérennité des référentiels data du configurateur. ● Définir et maintenir les règles de compatibilité et de cohérence entre produits. ● Modéliser et unifier les données multi-fournisseurs afin d’assurer leur intégration dans le configurateur. ● Identifier les attributs produits nécessaires à l’animation des parcours digitaux et coordonner leur complétude avec les parties prenantes (PILCO, marchés, fournisseurs…). ● Documenter les règles métier et référentiels afin d’assurer leur lisibilité, compréhension et transmission. 2. Pilotage du peuplement et performance produit ● Être responsable du peuplement des produits au sein du configurateur. ● Définir et suivre les indicateurs clés de performance (KPI) liés aux produits et aux parcours. ● Réaliser les analyses de performance et identifier les axes d’optimisation. ● Proposer et formaliser des plans d’action en lien avec les marchés. ● Contribuer à l’amélioration continue de l’offre et de l’expérience sur le configurateur.
Freelance
CDI

Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake

5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
CDI
Freelance

Offre d'emploi
Architecte Big Data IA

CHARLI GROUP
Publiée le
Gouvernance
IA
Natural Language Processing (NLP)

3 ans
Paris, France
1. Contexte du service : Cette mission vise à établir un cadre complet pour la gestion des données non structurées afin de soutenir les initiatives axées sur les données et l'IA. Elle a pour objectif de définir des normes, des règles et des cadres garantissant la fiabilité et la réutilisabilité des données, et facilitant ainsi le déploiement de solutions de données et d'IA évolutives grâce à la collaboration avec les parties prenantes concernées. Cette activité comprend le pilotage d'approches innovantes, la consolidation des enseignements tirés et la garantie de l'alignement avec les stratégies de données globales. 2. Périmètre du service: : Développement du socle méthodologique de la gestion des données non structurées, aligné sur les meilleures pratiques du secteur. Définition et documentation des normes, règles et cadres garantissant la qualité, la cohérence et la réutilisabilité des données. Coordination avec les parties prenantes internes pour recueillir leurs retours et assurer l'alignement avec les objectifs stratégiques. Tests pilotes de cadres de données non structurées innovants et intégration des enseignements tirés dans les pratiques opérationnelles. Évaluation des fournisseurs de technologies, analyse comparative des solutions et recommandation d'outils et de plateformes adaptés. Évaluation des techniques de traitement de documents (OCR, NLP, VLM), de la gestion des métadonnées, des ontologies et des solutions de bases de données vectorielles. Accompagnement des initiatives de transformation liées à l'utilisation des données à des fins d'IA et d'analyse. 3. Prestations de service: Un cadre méthodologique complet pour la gestion des données non structurées. Des normes, politiques et règles documentées pour la qualité des données, les métadonnées et l'architecture des données. Des rapports sur les projets pilotes, incluant les enseignements tirés et les meilleures pratiques. Des rapports d'évaluation des fournisseurs et des analyses comparatives. Une documentation technique sur les techniques de traitement de documents et les méthodes de transformation des données. Des recommandations concernant les outils, les plateformes et les plans de mise en œuvre alignés sur les besoins opérationnels.
CDI
Freelance

Offre d'emploi
Senior IT PMO (Trading / Data & Analytics / Risk) – Market Data Migration – Zurich – Contract

Avanda
Publiée le

Zurich, Suisse
Avanda is an IT Services Consultancy. We are looking for a Senior IT PMO to join our international team at a global client in the Zurich area (remote-friendly) on a strategic, multi-year Market Data to Data & Analytics (DnA) Platform Migration programme in the Trading sector. Excellent Rates are on offer for the right person. THE ROLE Role Senior IT PMO (Project Management Officer) Domain Trading (Commodities, Energy, Financial Markets, Investment Banking) Project Market Data → Data & Analytics (DnA) Platform Migration Start date June 2026 Duration Until March 2028 (phased extensions) Workload 4-5 days/week (80%-100%) Location Hybrid – Zurich area / Remote (90-100% remote, flexible) Languages English (must) – German (strong plus) THE PROJECT Our client is undertaking a strategic migration from a legacy market data infrastructure to a modern, federated Data & Analytics (DnA) platform. The programme involves: Multiple federated technical teams working in parallel (data mesh / domain-driven delivery model) Reconciliation and sign-off of risk and market data products with business stakeholders Full migration cutover including regulatory, risk, and trading data flows A long-term roadmap running through Q1 2028 You'll be joining an international, multi-disciplinary team of project managers, workstream leads, business analysts, data engineers, and architects. YOUR RESPONSIBILITIES As the Senior IT PMO, you will be the operational backbone of the programme: Support workstream leads with planning, status tracking, and cross-workstream coordination Run project meetings end-to-end: agendas, minutes, action logs, decision logs, follow-ups Maintain project documentation, status reports, and management updates Track open points, RAID items (Risks, Actions, Issues, Dependencies) across workstreams and escalate to the PM as required Prepare materials for Steering Committee (SteerCo) and senior governance bodies Support the onboarding of new project members and general project administration Drive the unglamorous but critical follow-up work that keeps a complex programme on track Requirements YOU NEED We are looking for a seasoned PMO contractor with: 8-15 years' PMO / Project Management Office experience in IT delivery environments Delivery track record on at least one large data platform, cloud migration, or platform modernization programme Comfortable with federated delivery models, Agile-at-scale (SAFe, Scrum-of-Scrums), or hybrid delivery Fluent in core PMO tooling: JIRA, Confluence, MS Project, MS Teams, SharePoint, Power BI Polished and articulate enough to brief a Steering Committee and senior stakeholders Strong organisational skills – structured, reliable, detail-oriented, self-starter Confident stakeholder communication at all levels Fluent English (mandatory), German is a plus These will be a plus: Domain experience in Investment Banking, Energy Trading, Commodities Trading, Power & Gas, Risk Management, or Financial Markets Exposure to market data platforms, regulatory data programmes (MiFID II, FRTB, EMIR, REMIT), or ETRM/CTRM systems (Mesap, Endur, Allegro, RightAngle, OpenLink) Experience with market data feeds: Refinitiv/LSEG, Bloomberg, ICE, EEX, EPEX Experience with Data Mesh, Data Lakehouse, Databricks, Snowflake, Azure Data Platform German language skills (B2+ / fluent) – strong advantage for stakeholder interactions Swiss market experience or based in Switzerland (Zurich, Aarau, Zug, Basel)
Freelance
CDI
CDD

Offre d'emploi
Expert Infrastructure Windows Senior – Lyon

RIDCHA DATA
Publiée le
Active Directory
Ansible
Internet Information Services (IIS)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre de la construction et de l’exploitation d’infrastructures Microsoft, nous recherchons un Expert Windows Senior pour intervenir sur des environnements complexes en Active Directory , avec un fort focus sur l’automatisation , le support niveau 3 et l’optimisation des infrastructures existantes. Vos missions Concevoir et déployer des infrastructures Windows Server robustes et sécurisées Assurer le support niveau 3 et la résolution d’incidents complexes Automatiser les tâches d’exploitation via PowerShell et Ansible Administrer et maintenir le parc informatique via SCCM Gérer et administrer les environnements Active Directory Intervenir sur les serveurs d’applications et infrastructures associées Documenter les procédures et participer à la montée en compétences des équipes Compétences techniques requises Expertise avancée sur Windows Server Solide maîtrise de Active Directory / Microsoft AD Très bonne expérience en administration SCCM Bonne maîtrise de : RDS Server SQL Server IIS Expertise en PowerShell Maîtrise confirmée de Ansible Connaissances en OpenStack / Virtualisation fortement appréciées
CDI

Offre d'emploi
PRODUCT OWNER / SCRUM MASTER DATA CONFIRME H/F

Savane Consulting
Publiée le

55k-70k €
Paris, France
Contexte du poste : Nous recherchons un Product Owner / Scrum Master afin d’intégrer la DSI de notre client, un acteur majeur du transport public et de la mobilité urbaine. Au sein de la Fabrique Digitale, et plus particulièrement de l’unité Data, vous interviendrez sur une plateforme d’échange permettant de standardiser les flux de données entre les différents systèmes de l’entreprise. Vous évoluerez dans un environnement multi-équipes et multi-projets, en forte interaction avec les équipes métiers, data et techniques, afin d’assurer la cohérence et la performance des solutions mises en place. Missions principales : Assurer le rôle de Product Owner (gestion et priorisation du backlog, rédaction des user stories et critères d’acceptation) Animer les rituels Agile en tant que Scrum Master (daily, sprint planning, rétrospectives) Piloter plusieurs équipes en parallèle et assurer la coordination transverse Recueillir, analyser et formaliser les besoins métiers Arbitrer entre valeur métier, faisabilité technique et charge Suivre l’avancement des projets, les risques et la qualité des livrables Accompagner les projets dans l’intégration avec la plateforme d’échange Contribuer au maintien en conditions opérationnelles des applications (RUN)
Freelance
CDI

Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)

STORM GROUP
Publiée le
AI
Machine Learning
Python

3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
CDI

Offre d'emploi
Développeur Python/ Data & IA H/F

CELAD
Publiée le

40k-48k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python/ Data & IA H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez sur un projet innovant autour de la conception et de la validation d’un modèle de données complexe dédié à l’analyse d’impacts environnementaux. Dans ce cadre, vous travaillez sur un écosystème logiciel en Python structuré autour d’un méta-modèle de données, avec des enjeux forts de qualité, de cohérence et de validation scientifique. Votre rôle consiste à tester, analyser et faire évoluer ce modèle ainsi que les chaînes d’import de données, dans un environnement collaboratif intégrant des outils d’intelligence artificielle. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser et comprendre un modèle de données existant et ses mécanismes - Tester de manière critique les chaînes d’import de données (YAML, Excel) - Développer et améliorer des fonctionnalités en Python - Mettre en place et exécuter des tests automatisés (pytest) - Utiliser des outils d’assistance au développement par IA (Copilot, Cursor…) - Documenter les résultats, anomalies et axes d’amélioration
CDI
Freelance

Offre d'emploi
Consultant Sécurité Réseaux / Analyste SOC H/F

Le Groupe SYD
Publiée le
Intune

12 mois
40k-42k €
400-420 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Consultant Sécurité Réseaux / Analyste SOC H/F 📍 Lieu : Angers (49) 🏠 Télétravail : 1 jour par semaine 📝 Contrat : Mission longue (jusqu’à fin 2026) 👉 Contexte client : Tu rejoins un acteur national majeur du secteur agro‑industriel , au sein d’une DSI fortement orientée cybersécurité et protection des infrastructures critiques. En tant que Consultant Sécurité Réseaux / SOC , tu interviens sur des projets structurants de cybersécurité, au croisement des équipes réseaux, cyber, éditeurs et intégrateurs. Tu auras pour missions de : Piloter des POC de solutions NDR , analyser les résultats et accompagner le choix technique. Déployer la solution retenue, l’ intégrer au SOC et assurer le passage en RUN . Mettre en œuvre la sécurisation des accès Wi‑Fi mobiles et des équipements. Réaliser le durcissement des infrastructures réseaux (switchs, standards de sécurité). Contribuer à la sécurisation des flux et protocoles réseaux . Travailler en coordination avec les équipes cyber, réseaux, éditeurs et intégrateurs . Documenter les solutions mises en place et accompagner leur mise en production . 🧰 Stack technique : Sécurité / SOC : SOC, supervision et traitement des alertes, NDR (Vectra AI, Darktrace, ExtraHop) Réseaux : Réseaux LAN/WAN, switchs managés, Wi‑Fi sécurisé, 802.1X, NAC Durcissement & conformité : Hardening CIS, sécurisation des infrastructures réseaux Gestion des accès & postes : Intune, contrôle des équipements et des accès mobiles Sécurisation des flux & protocoles : Deep SSL Inspection, DNSSEC, RadSec Architecture & environnements : Micro‑segmentation, environnements critiques multi‑sites
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / Data Ops (H/F)

QODEXIA
Publiée le
Apache Spark
AWS Cloud
Azure

10 jours
46k-48k €
430-450 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Contexte Notre client est un groupe qui constitue un majeur de la transition énergétique, engagé à atteindre la neutralité carbone d’ici 2045. Présent dans plus de 30 pays et fort de plus de 90000 collaborateurs, le Groupe intervient sur l’ensemble de la chaîne de valeur de l’énergie : production renouvelable, infrastructures gazières et services énergétiques. Le COE Data Groupe accompagne les entités du Groupe dans l’industrialisation de leurs usages data, en s’appuyant sur un écosystème moderne construit autour de Databricks. Dans ce cadre, le poste de Data Engineer / Data Ops contribue à concevoir, optimiser et exploiter des pipelines et architectures data fiables, scalables et alignés avec les besoins métiers.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6499 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous