Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 946 résultats.
Freelance

Mission freelance
Ingénieur réseaux et sécurité HABILITABLE H/F

Cheops Technology
Publiée le
Réseaux

12 mois
400-500 €
Corbeil-Essonnes, Île-de-France
Superviser et maintenir les infrastructures réseaux en France et à l’international Réaliser et suivre les ouvertures de flux (FOF) sur les Firewall Fortinet & PaloAlto Gérer la configuration et l’interconnexion des switchs et des ports Expertise technique dans le « RUN » des solutions et des équipements Etre le référent des incidents à traiter auprès des différents services Implémenter, configurer et faire évoluer les équipements tout en maintenant l’inventaire détaillé Contribuer à définir les évolutions et les solutions techniques en s’assurant de l'intégration des infrastructures et de la bonne application des règles d’architecture dans les projets. Documenter et mettre en place des procédures et modes opératoires, participer à la rédaction des Documents d’Architecture Technique Détaillé et/ou Général : DAT-D, DAT-G Participer à la détection et mise en conformité du réseau informatique industriel Expertise technique dans le « RUN » des solutions et des infrastructures Participer à la mise en œuvre des mesures de sécurité applicables au réseau industriel Automatiser tout ou partie du traitement des évènements de sécurité sur les ressources informatiques Indicateurs-clés de performance sur la sécurité et les incidents rencontrés Suivre et mettre en œuvre : - Les préconisations de- Les correctifs de sécurité et des vulnérabilités - Les indicateurs et moyens de performance sur la sécurité et les contrôles de conformité Documenter et mettre en place des procédures et modes opératoires en s’assurant de la bonne application des règles d’architecture dans les projets. Participer à la rédaction des documents d’architecture Technique Général ou Détaillé :
Freelance

Mission freelance
Senior Data Engineer Databricks (mini 7 ans d'expérience)

nahange
Publiée le
Agile Scrum
Data analysis
Databricks

6 mois
450-580 €
Île-de-France, France
Dans le cadre d'un projet en méthode agile, nous recherchons une profil Data Analyst Senior ayant une bonne maitrise de Databricks Prend en charge toute la partie processus de la gouvernance de la donnée, du bon usage des données, de la méthode de conduite des projets En charge de toute la partie devéloppement ; migration sur Databricks (pyspark) Maintenir à jour et enrichir le patrimoine documentaire associé aux projets traités Participation aux cérémonies agiles : sprint planning, daily, Maitrise SQL, Power BI Connaissance de l'environnement Power BI
CDI

Offre d'emploi
Responsable Master Data (H/F) - 93

Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)

Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Freelance

Mission freelance
Administrateur de base de données DBA DB2 Mainframe

BI SOLUTIONS
Publiée le
IBM Db2
Multiple Virtual Storage (MVS)

2 ans
400-460 €
Île-de-France, France
Administrateur de base de données DBA DB2 Mainframe ZOS 460 e Nous recherchons un administrateur base de données DBA DB2 'est un environnement banque Assurance , ayant travailler sur des sujets équivalent , maitrise de DB2 , système ZOS MVS Mainframe Bonne capacité d'adaptation bonne présentation . Bonne capacité à gérer les bases de données DB2 . Bon niveau de rédactionnel et bonne 'organisation et gestion du stress . Notre client est dans le domaine de l'assurance à PARIS centre. Budget 460 e par jour HT
CDI
Freelance

Offre d'emploi
Ingénieur Système & Réseau – Infrastructure, Sécurité & Projets

Ela Technology
Publiée le
Linux
NAS
VMware

1 an
40k-45k €
320-400 €
Lyon, Auvergne-Rhône-Alpes
Ingénieur Système & Réseau – Infrastructure, Sécurité & Projets Rejoignez une équipe dynamique au sein du service ISB ! Vous interviendrez sur des projets clés liés aux systèmes, réseaux et sauvegardes, avec un rôle central d’expertise, d’alerte et de veille technologique. Vos missions essentielles : Déployer des infrastructures robustes et sécurisées Maintenir et optimiser systèmes & réseaux Gérer les incidents et assurer le support N2/N3 Superviser la sécurité et la conformité Documenter les architectures et procédures Automatiser et optimiser les processus Collaborer avec les équipes internes et proposer des solutions innovantes
CDI

Offre d'emploi
ALTERNANCE - Assistant(e) chargé(e) d'études marketing data H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Microsoft Publisher

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Architecte Data AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Freelance
CDI

Offre d'emploi
Data Engineer (AWS / Databricks)

Hito
Publiée le
AWS Cloud
Databricks
Python

3 ans
40k-45k €
500-750 €
Tokyo, Japon
Pour le compte d’un de nos clients, nous recherchons un Data Engineer AWS motivé pour s’installer au Japon (Tokyo) afin de participer à la construction d’une nouvelle plateforme data. Missions : Dans le cadre de la mise en place d’un Data Hub, vous interviendrez notamment sur : - La construction de pipelines de données - L’intégration et la consolidation de données provenant de différents systèmes - Le mapping des flux de données entre systèmes sources et systèmes downstream - Le nettoyage et la fiabilisation des données - La mise à disposition des données pour des outils d’analyse et de reporting - Les échanges avec les équipes métier afin de comprendre les besoins data Stack technique - AWS - Databricks - Python - ECS - CI / CD - Outils de dataviz (type Tableau) Profil recherché - Expérience solide en Data Engineering - Très bonne maîtrise AWS - Expérience Databricks - Bonne compréhension des architectures data et pipelines Langues - Japonais requis (JLPT N2 dans l'idéal) pour échanger avec les équipes locales - OU Anglais professionnel/bilingue si tout est validé par le client pour la technique Organisation - Poste basé à Tokyo - Présence sur site 2 jours par semaine
Freelance

Mission freelance
CP Data Migration SAP - MDM

Atlas Connect
Publiée le
Coupa
CRM
Data governance

12 mois
580-690 €
Paris, France
🎯 Contexte de la mission Dans le cadre d’un vaste programme de transformation finance et digitalisation, notre client renforce son dispositif autour des sujets Data Model & Data Migration sur les périmètres : Performance Opérationnelle Finance Run des applications Finance (P2P et CRM) Programme Source-to-Pay Déploiement de Sirion (France & USA) Harmonisation des outils Migration et transformation des modèles de données Intégration future dans un référentiel MDM Projet S/4HANA Environnement international avec fort enjeu de coordination. 🚀 Missions principales Le Chef de Projet Data Migration sera responsable de la coordination et du pilotage des sujets liés au modèle de données et à la migration dans un environnement multi-outils. 📌 Pilotage Data Migration Définir et piloter la stratégie de migration des données Superviser la qualité, la transformation et la cohérence des données Garantir l’alignement avec les modèles cibles Anticiper l’intégration future dans le MDM 📌 Coordination transverse Mettre autour de la table les équipes métiers, IT et intégrateurs Animer les comités projets Arbitrer et prioriser les chantiers Assurer la cohérence entre P2P, CRM, Sirion et S/4HANA 📌 Programme & Outils Contribution au programme Nexus Pilotage data sur le périmètre Source-to-Pay Harmonisation des outils finance et procurement Compréhension des enjeux autour des outils de type StoS ⚠️ Le poste n’est pas orienté technique d’implémentation : → Pas de mise en place d’interfaces → Pas de déclenchement technique d’outils → Rôle orienté pilotage, coordination, gouvernance data 🧠 Profil recherché🎓 Expérience Minimum 8 ans d’expérience en gestion de projet data / transformation Expérience confirmée en migration de données dans des environnements complexes Expérience sur des programmes internationaux fortement structurants 💻 Compétences techniques Bonne connaissance de : SAP (idéalement S/4HANA) Coupa Environnements P2P / Source-to-Pay Connaissance de Tibco : un plus Compréhension des problématiques MDM Vision data model & gouvernance 🌍 Langues Anglais obligatoire
Freelance
CDI

Offre d'emploi
Data Engineer Python / Scala / Cloud

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST

12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
CDI

Offre d'emploi
Chef de projet Data MDM (industrie)

Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)

40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Freelance

Mission freelance
Data architecte / Expert Snowflake

Codezys
Publiée le
Apache Airflow
Kubernetes
Python

12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
CDI

Offre d'emploi
Ingénieur Système Windows & Virtualisation(H/F)

MSI Experts
Publiée le
Active Directory
Objet de stratégie de groupe (GPO)
Public Key Infrastructure (PKI)

Gennevilliers, Île-de-France
Dans le cadre du maintien en conditions opérationnelles et de sécurité d’infrastructures informatiques critiques, nous recherchons un.e Ingénieur.e Systèmes Windows spécialisé en virtualisation . Vous interviendrez en tant que tel sur des environnements serveurs complexes combinant infrastructures physiques et virtualisées , avec des technologies liées à la virtualisation, au stockage et aux solutions de sauvegarde . Vos missions Au sein d’une équipe d’exploitation et d’ingénierie systèmes, vous aurez notamment pour responsabilités : Administration et maintien en conditions opérationnelles des serveurs Windows Gestion et optimisation de la virtualisation VMware (ESXi / vCenter) Administration des services Active Directory, GPO, WSUS, PKI Gestion du stockage NetApp et des solutions de sauvegarde Cohesity / NetBackup Déploiement de serveurs physiques et virtuels Traitement des incidents, demandes et changements via outils ITSM .
CDI

Offre d'emploi
Ingénieur de production informatique (H/F)

ADSearch
Publiée le

40k-50k €
Montrouge, Île-de-France
Ingénieur de Production Informatique H/F – CDI – Hauts-de-Seine – Informatique, Systèmes, Réseaux, Supervision. La division IT de notre bureau Paris recherche pour son client, une entreprise de taille humaine spécialisée dans le tourisme, un Ingénieur de Production Informatique (H/F) dans les Hauts-de-Seine. VOS MISSIONS Vous intégrerez une équipe avec une bonne ambiance. Vous aurez l’occasion de travailler sur des sujets variés et complexes. Vous serez en charge des missions suivantes : Garantir la disponibilité, la performance et la cohérence des systèmes et outils en place. Assurer une surveillance proactive du bon fonctionnement des infrastructures à l’aide des outils de supervision. Détecter et prévenir les incidents en proposant des améliorations et solutions adaptées. Gérer l’exploitation quotidienne : suivi des incidents, traitement des demandes et accompagnement des mises en production. Développer et maintenir l’automatisation des processus et tâches d’exploitation. Administrer, sécuriser et sauvegarder l’environnement technique, en veillant à la conformité des configurations et à la mise en œuvre des plans de reprise d’activité. Participer à l’amélioration continue grâce à une veille technologique régulière et à la proposition d’évolutions pertinentes. Pour réussir vos missions d'Ingénieur de Production Informatique H/F, vous êtes issu de d’un Bac + 3 en informatique et pouvez justifier d’une expérience de 3 années sur un poste similaire au sein d’une PME. Vous maîtrisez Windows Server, Active Directory, Entra ID, le scripting PowerShell, ainsi que les outils de sauvegarde (DataProtector), supervision (Zabbix), ticketing (GLPI) et d’ordonnancement/automatisation (IBM Workload Automation). Vous possédez également des connaissances en virtualisation (VMware), PowerAutomate, administration Microsoft 365 et en réseaux (TCP/IP, VLANs, routage, sécurité). Curieux et innovant, vous explorez de nouvelles idées et cherchez constamment à améliorer les méthodes de travail. Structuré et rigoureux, vous savez gérer les priorités et rester efficace sous pression. Collaboratif et réactif, vous contribuez au succès de l’équipe et vous adaptez facilement à des missions variées. Besoin d’un nouveau challenge ? Postulez à cette offre pour que nous échangions sur vos perspectives ! Pour toute information complémentaire, n'hésitez pas à contacter notre bureau le plus proche. Nos consultants seront ravis de répondre à vos questions. Et si vous souhaitez consulter l'ensemble des opportunités professionnelles que nous proposons, rendez-vous sur notre site adsearch.fr !
Freelance

Mission freelance
Data Engineer Senior H/F

Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks

60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Freelance

Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data

STHREE SAS pour HUXLEY
Publiée le

6 mois
France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
6946 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous