Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 509 résultats.
Alternance
CDI

Offre d'emploi
Data Analyst Supply Chain - Alternance F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

69009, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Teradata, bases Hive, Phoenix, HDFS, API Springboot VANNES

WorldWide People
Publiée le
Data Engineering

12 mois
Vannes, Bretagne
Data Engineer Teradata, bases Hive, Phoenix, HDFS, API Springboot VANNES Profil : • Expertise Forte sur ces technos avec une très bonne communication avec une expérience significative sur les technologies Cloudera. • La mission se déroule sur le site de Vannes et nécessitera d’être présent à minima 3 jours par semaine sur le site (dont les Mardi et Jeudi) Prestation : • Assure le développement et l’intégration des évolutions sur le périmètre des solutions de la Squad • Prépare, réalise la mise en production avec les équipes expertes; assure le SAV • Gère et maintient la documentation fonctionnelle et technique • Contribue à l’assistance à l’utilisation des solutions • Contribue aux séances d'affinage technique en phase de conception • Réalise une veille technologique régulière pour être au fait des dernières tendances • Contribue à alimenter le contenu du backlog pour prévoir les développements futurs • Analyse du patrimoine existant Le besoin est d'accompagner la squad dans un contexte de développement et de maintenance de solutions Data (Teradata, bases Hive, Phoenix, HDFS) et d'API Springboot. Profil : • Expertise Forte sur ces technos avec une très bonne communication avec une expérience significative sur les technologies Cloudera. • La mission se déroule sur le site de Vannes et nécessitera d’être présent à minima 3 jours par semaine sur le site (dont les Mardi et Jeudi)
CDI

Offre d'emploi
Senior Data Scientist - Ecommerce (f/m/d) (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecture Dataiku - Lamballe (22)

Signe +
Publiée le
Amazon S3
Data governance
Data Lake

150 jours
430-450 €
Lamballe-Armor, Bretagne
L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver → gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données
Freelance
CDI

Offre d'emploi
Expert Sécurisation Windows (H/F)

RIDCHA DATA
Publiée le
Ansible
Center for Internet Security (CIS)
Windows Server

1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme de renforcement de la sécurité des infrastructures Windows, vous interviendrez sur un projet stratégique de sécurisation des systèmes conformément aux exigences d’audit et aux standards de sécurité reconnus. Vous intégrerez une équipe Infrastructure & Sécurité afin de participer à la sécurisation et à l’industrialisation des environnements Windows sur des infrastructures critiques. Missions principales Sécurisation des environnements Windows Participer à la définition des mesures de sécurisation avec les équipes Sécurité et Administration Windows Mettre en œuvre les recommandations basées sur les standards CIS Niveau 1 Réaliser le hardening des images OS Windows Garantir la conformité des socles techniques et des environnements sécurisés Industrialisation & Déploiement Intégrer les OS sécurisés dans les outils et mécanismes existants de déploiement Participer à l’automatisation des processus de sécurisation Définir des stratégies de déploiement sécurisées pour les nouveaux environnements Gestion du parc existant Proposer des solutions de sécurisation adaptées aux infrastructures déjà déployées Déployer les configurations de sécurité tout en minimisant les impacts métiers Assurer le maintien en condition opérationnelle des environnements sécurisés Coordination & Collaboration Travailler en étroite collaboration avec les équipes Infrastructure, Sécurité et Administration Windows Participer aux ateliers techniques et réunions Agile Collaborer ponctuellement avec des équipes internationales/offshore Documentation & Gouvernance Produire la documentation technique associée aux socles sécurisés Participer au suivi des jalons et livrables projet Contribuer à la définition des bonnes pratiques et standards de sécurité Environnements techniques Windows Server 2012 R2 Windows Server 2016 Windows Server 2019 Windows Server 2022 Préparation des futurs environnements Windows Server 2025 Périmètre Infrastructures On-Premise Environnements virtualisés Intranet / Zones protégées / DMZ Évolutions futures vers des environnements Cloud Compétences recherchées Compétences impératives Expertise des environnements Windows Server Expérience en sécurisation / hardening Windows Maîtrise des standards CIS / ANSSI / ISO Expérience sur des environnements sécurisés et DMZ Compétences importantes Connaissance Ansible Automatisation & scripting Documentation technique Anglais professionnel (écrit et oral)
Freelance
CDI

Offre d'emploi
Expert Sécurisation Linux (H/F)

RIDCHA DATA
Publiée le
Administration linux
Center for Internet Security (CIS)
CentOS

1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme de renforcement de la sécurité des infrastructures Linux suite à des exigences d’audit et de conformité, vous intégrerez une équipe spécialisée Infrastructure & Sécurité. La mission consiste à piloter et mettre en œuvre la sécurisation d’un parc Linux complexe en collaboration étroite avec les équipes Sécurité et Administration Systèmes. Le projet s’appuie principalement sur les standards CIS Level 1 avec une forte orientation industrialisation et déploiement sécurisé. Missions principales Sécurisation des environnements Linux Participer à la définition des mesures de sécurisation avec les équipes Sécurité et Systèmes Mettre en œuvre les recommandations basées sur les standards CIS Réaliser la sécurisation des images OS Linux Garantir la conformité des socles techniques Industrialisation & Déploiement Intégrer les OS sécurisés dans les mécanismes existants de déploiement Automatiser les processus de sécurisation Définir les méthodes de déploiement sur le parc existant tout en minimisant les impacts métiers Gestion du parc existant Déployer les correctifs et configurations de sécurité sur les infrastructures déjà en production Accompagner les équipes opérationnelles dans les phases de transition Participer au maintien en condition opérationnelle des environnements sécurisés Coordination & Expertise Collaborer avec les équipes Infrastructure, Sécurité et Administration Linux Interagir ponctuellement avec des équipes internationales/offshore Participer aux réunions de suivi projet et aux ateliers techniques Documentation & Gouvernance Produire la documentation technique associée aux socles sécurisés Définir les standards et bonnes pratiques de sécurisation Contribuer au pilotage des livrables et jalons projet Environnements techniques RedHat 6 / 7 / 8 / 9 Rocky Linux 8 / 9 CentOS 7 Environnements On-Premise, DMZ et infrastructures virtualisées Compétences recherchées Compétences impératives Expertise Linux (RedHat, CentOS, Rocky Linux) Maîtrise des standards de sécurisation CIS / ANSSI / ISO Expérience en hardening d’OS Linux Connaissance des environnements sécurisés et DMZ Compétences importantes Ansible Automatisation & scripting Documentation technique Anglais professionnel (oral & écrit)
Freelance

Mission freelance
Data Engineer Sénior (H/F)

Sapiens Group
Publiée le
Agile Scrum
Apache Spark
BigQuery

12 mois
550-580 €
Île-de-France, France
Missions principales Vous contribuerez à la construction et à l’évolution de la plateforme Data afin de garantir la collecte, la centralisation, la gouvernance et la fiabilité des données. Vos responsabilités Participer activement aux phases de conception, planification et réalisation des sujets techniques avec l’équipe Concevoir, développer et maintenir des pipelines data robustes, performants et scalables Centraliser et intégrer des sources de données hétérogènes Structurer et optimiser les solutions de stockage des données Garantir la qualité, la conformité et la sécurité des données Déployer et maintenir des infrastructures cloud évolutives sur GCP Mettre en place et maintenir les workflows CI/CD Accompagner les équipes dans l’exploitation et le requêtage des données Participer aux initiatives de gouvernance des données Contribuer à l’amélioration continue des bonnes pratiques Data Engineering Assurer la stabilité, la sécurité et l’évolutivité des environnements techniques Participer aux communautés et instances Data Engineering Maintenir une documentation technique claire et à jour Réaliser une veille technologique active sur les sujets Data & Cloud Environnement techniqueLangages & Frameworks Python SQL Spark Cloud & Data Platform Google Cloud Platform (GCP) BigQuery Dataproc Pub/Sub Cloud Storage Dataplex Universal Catalog Data Engineering & Orchestration Airflow Delta Lake Infrastructure & DevOps Terraform Terragrunt GitLab GitLab CI/CD Méthodologies Agile Scrum Kanban
CDI
Freelance

Offre d'emploi
Ingénieur Système & Réseau – MySQL / Data Infrastructure h/f

Ela Technology
Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
Nancy, Grand Est
💥 Enjeux de la mission Intervention sur des plateformes data critiques , au cœur de l’infrastructure SI. Focalisation sur : performance haute disponibilité fiabilité des systèmes Positionnement à la croisée du run avancé, de l’optimisation et des projets techniques . 🎯 Périmètre d’intervention Gestion des incidents N3 en production critique Optimisation des bases MySQL (tuning, performance, haute disponibilité) Industrialisation des solutions techniques Gestion de l’obsolescence (upgrades, stabilisation) Suivi des KPIs de performance et disponibilité Contribution aux évolutions de l’infrastructure data 🛠️ Environnement technique attendu Maîtrise nécessaire ou forte montée en compétence attendue sur : MySQL → expertise (performance, réplication, HA) Linux → administration avancée Docker → conteneurisation ELK → supervision et analyse avancée Ansible / Puppet → automatisation Kafka → compréhension opérationnelle Airflow → orchestration CI/CD & Git → usage courant Expériences appréciées sur : Hadoop, Spark, Hive
CDI

Offre d'emploi
Data scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data

Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Support Delivery Lead (H/F) – Paris / Hybride

Craftman data
Publiée le
Azure
Microsoft Power BI
Méthode Agile

3 mois
400-550 €
Paris, France
Dans le cadre du renforcement des équipes IT, nous recherchons un Support Delivery Lead pour accompagner la gestion d’un portefeuille applicatif couvrant une large gamme de solutions utilisées au siège et dans les filiales. Contexte et objectifs Vous interviendrez en accompagnement des Delivery Leads afin d’assurer le bon fonctionnement des applications, le pilotage des services applicatifs et la qualité des prestations fournies par les partenaires de Tierce Maintenance Applicative (TMA). Activités principales Piloter les services fournis par les prestataires TMA et garantir un delivery de qualité (MCO/MCS) Assurer le suivi opérationnel quotidien avec les utilisateurs (incidents, demandes, évolutions, questions) Suivre le renouvellement des licences et la gestion de l’obsolescence technique Suivre et faire avancer les demandes de packaging et mises en production Piloter la livraison des évolutions (planning, budget, exigences architecture et cybersécurité) Mettre à jour les référentiels et catalogues de données (CMDB, inventaires Cloud / FinOps) Suivre les KPI et SLA et produire les reportings (Power BI, Excel) Contrôler la qualité des données publiées et contribuer à l’amélioration continue des processus (REX) Suivre les plans d’actions et coordonner l’ensemble des parties prenantes Assurer le move-to-run des projets vers la TMA avec les livrables attendus Contribuer à la transformation des activités 2026 (innovation, GenIA, citizen development) Compétences attendues Power BI : confirmé Microsoft Office : confirmé Azure : confirmé Data Management : avancé Développement Agile : avancé PowerApps : notions Expérience en gestion de portefeuille applicatif et pilotage TMA Langue Anglais courant requis Localisation Paris / hybride
Freelance
CDI

Offre d'emploi
Data Delivery leader

Nexius Finance
Publiée le
Data governance

1 an
55k-65k €
530-780 €
Paris, France
Nexius Finance est une société de conseil et d’intégration de solutions d’entreprises, acteur de référence du conseil dans le monde de la banque/Finance et assurance. Nous intervenons auprès des grands acteurs du marché. Nous apportons à nos clients une forte spécialisation dans leurs domaines d’activité et une double compétence sur les systèmes d’information. Réinventer les processus métiers, optimiser les systèmes d’information, innover dans les produits et services grâce aux nouvelles technologies sont des problématiques complexes et pointues auxquelles Nexius Finance apporte des solutions sur-mesure innovantes à ses clients Nous recherchons pour un de nos clients (une société de gestion) un Data Delivery Leader qui interviendra sur un projet ayant pour objectif d’industrialiser et de déployer une Data Platform transverse pour les activités Capital Market. Sous la responsabilité de la direction IT du programme Data Platform, il permettra la mise à disposition de data products fiables, gouvernés et accessibles en self-service pour les usages BI, analytics et IA. Le profil retenu aura pour objectif de créer un socle data cloud mutualisé, orienté valeur business afin d’accélérer les cas d’usage et soutenir la transformation digitale. Dans le cadre il lui sera demandé de : - Piloter le delivery global de la Data Platform (incluant la mise à disposition des data products) - Superviser la mise en œuvre et l’industrialisation des data products - Structurer la backlog selon l’approche Agile de CMI avec roadmap, jalons, dépendances, .. - Mettre en place et suivre les indicateurs de delivery (avancement, risques, qualité, coûts, valeur business) - Assurer la coordination technique des différents acteurs contribuant à al data plateforme
CDI

Offre d'emploi
DATA SCIENTIST - Télécom - Lyon (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Keras
Python

40k-54k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Rejoignez une entreprise innovante appartenant à un groupe de renom œuvrant dans le domaine des télécommunications. Avec des équipes basées à Lyon, notre entreprise s'attache à transformer l'expérience client à travers le développement de solutions IT innovantes pour divers opérateurs télécoms à travers le monde. Actuellement, nous sommes à la recherche d'un Data Scientist passionné pour rejoindre une équipe dynamique et motivée, composée de 9 personnes, dédiée à l'optimisation des réseaux radio du groupe. Dans le cadre de notre croissance et de l'évolution de nos projets, nous lançons ce recrutement pour soutenir nos efforts en intelligence artificielle et en data science. Missions Missions principales - Développer et mettre en œuvre des solutions IA pour résoudre des problématiques complexes dans le secteur des télécoms, incluant l'optimisation radio et le monitoring automatique. - Contribuer à l'amélioration de l'efficacité énergétique du réseau et à la création de chatbots business-orientés. Missions annexes - Collaborer avec les commanditaires pour définir les cas d’usage et s’assurer de la pertinence des applications proposées. - Coordonner les initiatives de Crédit Impôt Recherche et encadrer un alternant en Data Science. - Participer activement à l'intégration de modèles de données dans l'environnement de production et maintenir une veille technologique rigoureuse. Stack technique Compétences à maîtriser - Python 3, SQL, TensorFlow, scikit-learn, Keras, Pandas, Matplotlib, Ploty, seaborn. - Data processing avec Jupyter Lab, Airflow, Superset. Environnement technique - Bases de données relationnelles et non-relationnelles, fichiers csv et parquet, outils de gestion de projet tels que JIRA et Confluence.
Freelance
CDI

Offre d'emploi
Ingénieur Virtualisation & Automatisation VMware / Ansible (H/F)

RIDCHA DATA
Publiée le
Ansible
DevOps
Python

1 an
Charenton-le-Pont, Île-de-France
Contexte de la mission Dans le cadre du développement et de l’optimisation des plateformes de virtualisation, vous intégrerez une équipe spécialisée Virtualisation & Automatisation. La mission vise à accompagner la croissance des activités métiers tout en garantissant la performance, la disponibilité et l’industrialisation des infrastructures. Vous interviendrez dans un environnement transverse en collaboration avec les équipes Réseaux, Stockage et DevOps. Missions principales Virtualisation & Infrastructure Déployer et maintenir les infrastructures VMware ESXi Administrer les environnements NSX, VSAN et Horizon View Participer aux projets d’évolution des infrastructures virtualisées Assurer le maintien en condition opérationnelle des plateformes Automatisation & Industrialisation Concevoir et mettre en œuvre des solutions d’automatisation Développer des scripts d’automatisation et d’exploitation Industrialiser les processus opérationnels Utiliser les API et méthodologies DevOps pour optimiser les opérations Exploitation & Support Traiter les incidents et demandes techniques Réaliser les diagnostics et résoudre les problèmes complexes Assurer le capacity planning des infrastructures Garantir la disponibilité, la sécurité et la qualité des systèmes Architecture & Expertise Participer aux études techniques et aux évolutions d’infrastructure Réaliser les designs techniques et les paramétrages avancés Définir les standards, méthodes et bonnes pratiques Assurer une veille technologique continue Coordination & Conseil Collaborer avec les équipes Réseaux, Stockage et DevOps Assurer un rôle de conseil et d’expertise technique Participer à la qualification des solutions et infrastructures Compétences recherchées Compétences impératives Ansible – Niveau Expert VMware vSphere / ESXi – Niveau Expert Très bonnes compétences en scripting et automatisation Expertise API & méthodologies DevOps Compétences importantes Python – Niveau confirmé Automatisation AAP2 Gestion des environnements virtualisés complexes Compétences appréciées NSX VSAN Horizon View PureStorage iSCSI / SAN
Freelance
CDI

Offre d'emploi
Data Engineer / DataOps (H/F)

RIDCHA DATA
Publiée le
CI/CD
Cloud privé
DBT

1 an
Montreuil, Île-de-France
Contexte de la mission Dans le cadre de la refonte complète d’un Data Lake stratégique, nous recherchons un profil Data Engineer orienté DataOps / MLOps afin d’accompagner la mise en place d’une plateforme data moderne, scalable et gouvernée. Le projet repose sur une architecture Medallion (Bronze / Silver / Gold) et intègre plusieurs technologies modernes liées à l’ingestion, la transformation, l’orchestration et la gouvernance des données. Le consultant interviendra à la fois sur les aspects Data Engineering , industrialisation , CI/CD , déploiement de pipelines et automatisation des workflows data . Missions principales Analyse de l’existant & Migration Cartographier les sources de données, pipelines et flux existants Participer à la définition de la stratégie de migration vers le nouveau Data Lake Concevoir les plans de bascule tout en minimisant les impacts de production Architecture & Ingestion Concevoir les couches Bronze / Silver / Gold du Data Lake Développer les pipelines d’ingestion batch et near real-time Participer à l’optimisation des flux de données et des performances Transformation & Modélisation Développer les modèles de transformation avec dbt Mettre en place les tests automatisés et la documentation technique Harmoniser les schémas et standards de données DataOps / DevOps Mettre en œuvre les pipelines CI/CD pour les traitements data Industrialiser les déploiements et automatiser les workflows Participer à la supervision, au monitoring et à l’observabilité des pipelines Collaborer avec les équipes DevOps et Infrastructure Orchestration & Gouvernance Déployer et maintenir les workflows avec Argo Workflows Participer à la gouvernance des métadonnées et de la qualité des données Contribuer à l’amélioration continue des pratiques DataOps Compétences recherchées Compétences techniques impératives Data Engineering SQL avancé dbt CI/CD & automatisation Déploiement de pipelines data Bonne culture DevOps / DataOps Technologies TrinoDB Apache Iceberg Parquet Argo Workflows Apache Superset Metabase OpenMetadata Compétences appréciées Kubernetes Docker GitLab CI/CD ou Jenkins Python Environnements Cloud & orchestration data
CDI

Offre d'emploi
Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Data management
SQL

45k-65k €
Nogent-sur-Marne, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Analyste - Développeur Data & IA F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

Romorantin-Lanthenay, Centre-Val de Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

5509 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous