Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 114 résultats.
Freelance
CDI

Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)

OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage

3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Freelance
CDI

Offre d'emploi
Senior Data Engineer Big Data

VISIAN
Publiée le
AWS Cloud
Python

1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes et Réseaux - F/H

AIS
Publiée le
Réseaux

1 mois
35k-40k €
200-400 €
Angers, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte, vos missions seront les suivantes : - Support N2/3 polyvalent : traitements des demandes et des incidents. - Optimisation des processus internes - Gestion des incidents réseau (Wi-Fi, fibre, configuration firewall, SD-WAN) et système (NTFS/DFS, O365). - Pilotage opérationnel des actions d'intégrations de nouveaux clients - Planification des interventions - Supervision des mises en service - Coordination des équipes techniques. Environnement technique : - Cisco Meraki - Fortinet - Windows Server - Active Directory - MS365 (Exchange, Entra ID, etc.)
CDI

Offre d'emploi
Ingénieur Backend Python – Data & IA (Knowledge Graph / LLM) H/F

ADSearch
Publiée le

50k-60k €
Nice, Provence-Alpes-Côte d'Azur
En bref : CDI - Ingénieur Backend Python – Data & IA (Knowledge Graph / LLM) H/F - 1jour/semaine Télétravail - Fintech - Nice (centre) - 45/55K€ Je recrute pour une Fintech qui construit un produit un peu spécial... L’objectif : prendre une masse d’informations disparates, la structurer intelligemment et permettre leur exploitation de manière fluide. Simple me diras-tu ? Tu rêves de travailler en plein centre-ville de Nice ? Tu cherches avec délectation les possibilités qu'offre l'IA (LLM, IA agentique, OpenAI, ...) ? Tu souhaites évoluer au sein d'une petite équipe ? Tu as une vision globale sur une application : architecture, performance, algo ? Très à l'aise avec les Bases de Données Graphes, Python n'a plus de secret pour toi ?! ET TOI DANS TOUT CA ? Tu interviens directement sur le cœur du système, parmi une équipe de 5 personnes. Ton quotidien ne sera pas de “brancher des endpoints”, mais plutôt de : - Concevoir des briques backend solides - Structurer des flux de données parfois complexes - Organiser et faire évoluer les modèles de données - Mettre en place des traitements automatisés - Intégrer des logiques d’enrichissement via l’IA - Faire évoluer la plateforme pour qu’elle tienne la montée en charge Tu touches à la fois à la technique pure… et à la logique métier Pas mal non ?! TON PROFIL - Tu maitrises (bien évidemment) Python - Tu es à la pointe des usages réels de modèles IA (pas seulement R&D) - Tu connais bien les services web et l'environnement Prod et Préprod - Les données : c'est ton truc ! Tu es aussi à l'aise sur BDD relationnelles que non relationnelles (technologies orientées graphes) - Les systèmes asynchrones et la conteneurisation, te sont familiers Savoir-être : - Tu as une tête bien faite : tu piges vite et agis rapidement - Tu as une bonne réflexion en termes d’architecture - Tu aimes comprendre en profondeur plutôt que survoler
CDI

Offre d'emploi
AMOA DATA

AVALIANCE
Publiée le
AMOA

40k-60k €
Paris, France
Voici les principaux axes liés à la transformation numérique et aux grands projets de transformations IT : • Digitalisation des parcours clients • Évolution du système d’information • Intégration de l’intelligence artificielle • Refonte de l’environnement digital • Objectifs financiers et opérationnels. Les projets s’inscrivent dans une architecture DataPlatform structurée en quatre couches : • Sources de données : SI internes(PICRIS, ALTO ESR, NEC, ECO, Salesforce, IzyDSN…), flux provenant de SI externes (délégataires,, SNGI-CNAV, INSEE…), saisies manuelles
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
Freelance
CDI
CDD

Offre d'emploi
Data Engineer – Pipelines de données (SQL / ETL / AWS) – H/F

SMARTPOINT
Publiée le
API
AWS Cloud

1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes data, nous recherchons un Data Engineer (H/F) pour intervenir sur la conception, le développement et la maintenance de pipelines de données ainsi que sur l’exploitation et l’amélioration des solutions techniques associées. Vous contribuerez au bon fonctionnement des plateformes data en assurant le développement de pipelines ETL/ELT, la manipulation de données et le maintien en conditions opérationnelles des systèmes . Vous évoluerez dans un environnement technique moderne reposant sur des architectures API/Webservices, des solutions cloud AWS et des pratiques DevOps .
Freelance

Mission freelance
MLOps / Data Engineer (Expert Dataiku)

HAYS France
Publiée le
Dataiku
MLOps

6 mois
Nouvelle-Aquitaine, France
Contexte Le domaine SI Dataplatform & BI souhaite renforcer ses capacités d’industrialisation des projets Data Science et IA. La plateforme Dataiku DSS est utilisée pour le développement des modèles ML et nécessite une expertise externe pour sécuriser leur mise en production, leur exploitation dans le temps et leur alimentation en données. La mission s’inscrit à l’interface entre l’équipe Data Science et l’équipe Dataplatform de la DSI, avec une forte orientation d’industri­­alisation (build & run). Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention • Projets Data Science & IA développés sous Dataiku DSS • Chaînes MLOps (entraînement, déploiement, supervision des modèles) • Connexion de Dataiku aux sources de données de l’entreprise • Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation
CDI

Offre d'emploi
ALTERNANCE - Assistant Pilotage Portefeuille Produits Data (H/F)

█ █ █ █ █ █ █
Publiée le

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Expert Technique Big Data

VISIAN
Publiée le
IBM DataStage
Web Application Firewall (WAF)

1 an
Île-de-France, France
Contexte Dans un contexte de migration d’une plateforme des technologies big data vers des technologies classiques, nous recherchons un expert technique autonome et chevronné afin d’assurer cette migration from scratch. Missions Commander les serveurs depuis les portails cloud internes : les customiser afin de les rendre opérationnels, c’est-à-dire conformes à la politique d’exploitation et de sécurité. Commander des bases de données On-premise et/ou Cloud en fonction des besoins : les installer, configurer et les administrer. Installation et configuration de l’ETL DataStage et ses satellites dans une infrastructure 3 tiers haute disponibilité : Data de données actif/passif avec réplication et synchronisation des données. Installation et configuration du WAS actif/passif. Installation et configuration du core de l’ETL : actif/passif tout en garantissant la résilience. Garantir le parallélisme et le cloisonnement des environnements dans une même plateforme. Installation et gestion des middlewares : CFT/MQseries (Actif/actif) : haute disponibilité. Autosys : gestion et développement des JIL : ordonnanceur applicatif et scheduler. Monitoring technique, BAM, outils de reporting/data visualisation, etc. Installation de l’application et support aux équipes projets. Veiller à la bonne traçabilité des services techniques utilisés au niveau infrastructure et applicative. Mise en place des procédures BAU : reporting, documents d’exploitations et d’installation. Formation des équipes de support, niveau 2 et 3.
Freelance
CDI

Offre d'emploi
Data Analyste

OCTOGONE
Publiée le
Data analysis

1 an
Brive-la-Gaillarde, Nouvelle-Aquitaine
Basé à Cholet (49) ou Brive la Gaillarde (19) Description Principales responsabilités de l’offre : > Collecter, structurer et modéliser les données issues des différents systèmes industriels (ERP, MES, etc.) ; > Définir et construire des modèles de données adaptés aux besoins de reporting et d’analyse ; > Concevoir et maintenir des dashboards dynamiques sur Power BI (ou tout autre outil équivalent de data visualisation) afin de restituer les indicateurs clés de performance (KPI) aux équipes métiers ; > Participer à la mise en place de flux de données automatisés via des outils ETL (Talend de préférence) pour garantir la fiabilité et la disponibilité des informations ; > Accompagner les équipes opérationnelles dans la compréhension et l’utilisation des analyses produites ; > Identifier les axes d’amélioration, proposer des solutions innovantes et contribuer à la transformation digitale du site industriel ; > Rédiger la documentation des modèles, processus et outils déployés.
Freelance

Mission freelance
Data Product Manager

K2 Partnering Solutions
Publiée le
Data management

1 an
Paris, France
Notre client recherche un(e) Data Product Manager afin de renforcer ses équipes. L’objectif est de concevoir, structurer et développer un portefeuille de produits et de plateformes data répondant aux besoins métiers du domaine Mobility, tout en respectant les standards et les guidelines en matière d’architecture Data & Analytics définis par le client. Priorités pour 2026 : Migration vers une plateforme data Cloud Migration de MicroStrategy vers Power BI Prise en charge des besoins métiers continus dans les domaines : Sales Finance Manufacturing Supply Chain Purchasing Compétences attendues : Excellente communication en français et en anglais Compétences en analyse de données (exploratoire) et modélisation de données Bonne compréhension du cycle de vie complet de la donnée (de la source à la visualisation) Vision globale des produits Data & BI dans leur périmètre Connaissance des données ERP (SAP) et des principes de Master Data Management Rigueur dans les méthodes d’analyse, de cadrage et d’organisation Forte orientation client Esprit d’équipe Début : Mai 2026 Location : Paris (3 jours sur site/ 2 jours télétravail) Langues : Français et Anglais
Freelance

Mission freelance
Ingénieur Data (RIM / IDMP)

CS Group Solutions
Publiée le
Data analysis

6 mois
Île-de-France, France
Nous recherchons un Ingénieur Data (RIM / IDMP) Objectif global :Accompagner l’équipe Data Entry (RIM / IDMP) Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. __________ Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : - planification des changements globaux/locaux - planification et suivi des soumissions - planification et suivi des enregistrements - gestion des CCDS et de l’étiquetage local - reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Excellentes compétences en communication en anglais. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset).
Freelance

Mission freelance
Data Analyst (H/F) - Belgique

Mindquest
Publiée le
Python
SQL

3 mois
340-500 €
Gosselies, Hainaut, Belgique
Dans le cadre de ses activités, notre client recherche un(e) Data Analyst Transverse pour rejoindre l’équipe Reporting Transversal au sein de la Direction Stratégie & Transformation. Vous interviendrez sur l’analyse et la valorisation des données afin de soutenir la prise de décision stratégique et améliorer les performances globales de l’entreprise. Mission 1. Aide à la décision stratégique * Développer et implémenter des modèles et algorithmes de traitement de données * Produire des analyses avancées pour orienter les décisions stratégiques * Collaborer avec les métiers pour identifier les besoins data et proposer des solutions adaptées 2. Valorisation des données * Analyser les tendances et performances opérationnelles * Construire des scénarios prospectifs * Concevoir des dashboards et visualisations interactives (Power BI) 3. Contribution aux projets transverses * Participer aux projets de transformation de l’entreprise * Assurer la communication avec les différentes équipes * Contribuer aux initiatives de transformation digitale
Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ (F5 firewall Azure) au Havre

ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
F5
Firewall

3 mois
400-600 €
Le Havre, Normandie
CONTEXTE DE LA MISSION Dans le cadre de la consolidation de son infrastructure réseau et sécurité et de sa transformation vers une architecture micro-services, nous recherchons un Ingénieur Réseau & Sécurité Senior pour auditer, valider et consolider l'existant et sécuriser les opérations d’exploitation. L'environnement technique actuel repose sur une infrastructure multisites hybride Azure/on-premises avec connectivité Azure ExpressRoute, load balancers F5, firewalls Check Point, DRP géo-distribués. CONSOLIDATION DE L'EXISTANT Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage - Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL offloading, iRules - Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL - Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute - Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées TRANSFERT & ACCOMPAGNEMENT EQUIPES - Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances - Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage - Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point
Freelance
CDI

Offre d'emploi
Data Engineer Big Data/Teradata

VISIAN
Publiée le
Apache Spark
Big Data
Python

2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
6114 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous