L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 114 résultats.
Offre d'emploi
Data Engineer Big Data
Signe +
Publiée le
24 mois
45k-50k €
322-500 €
Saint-Denis, Île-de-France
Contexte: Nous recherchons un Data Engineer Expérimenté/Senior spécialisé en environnement Big Data OnPremise pour une mission dans le cadre de l'exploitation, du maintien en conditions opérationnelles et des évolutions du Data Lake OnPremise (DataStore). Le collaborateur s'intégrera dans une équipe de 14 développeurs et contribuera également aux travaux liés à la migration progressive du Data Lake vers GCP. Missions : Exploitation et maintenance des traitements Big Data : supervision, intégration des données, contrôle qualité. Développements et évolutions sur les pipelines existants (Spark, Kafka, NIFI). Optimisation des performances et maintien des services DataStore. Gestion des incidents niveau 3 : diagnostic, correction, suivi JIRA/ITZMI. Participation aux évolutions applicatives, aux travaux transverses et aux actions préparatoires à la migration Cloud. Profil : Data Engineer Tech Lead Compétences techniques requises : Spark Kafka NIFI HDFS HBase Airflow Python SQL Technologies complémentaires : Java Scala BigQuery
Mission freelance
Administrateur Systèmes & Réseaux Linux (H/F)
Link Consulting
Publiée le
Centreon
Firewall
GLPI
12 mois
350-400 €
31860, Pins-Justaret, Occitanie
Notre client, acteur technologique spécialisé dans les solutions informatiques et les infrastructures systèmes, recherche son futur Administrateur Systèmes & Réseaux Linux (H/F) afin de renforcer ses équipes techniques. Vos missions : Intégré à une équipe technique spécialisée en infrastructures et virtualisation, vous interviendrez sur la conception, le déploiement et le maintien en conditions opérationnelles d’environnements systèmes. À ce titre, vous serez notamment amené à : * Concevoir l’architecture technique des systèmes à partir des besoins et cahiers des charges clients * Définir l’intégration des infrastructures dans les environnements réseaux en tenant compte des enjeux de sécurité, de redondance et de sauvegarde * Déployer et configurer des machines virtuelles Linux sur des environnements VMware ou Proxmox * Participer aux phases de tests, validation et mise en production des solutions déployées * Rédiger les documentations techniques (architecture, exploitation, maintenance) * Mettre en place et maintenir les outils de supervision et de monitoring * Assurer le support et la maintenance de niveau 3 des infrastructures systèmes Les compétences techniques * Linux (RedHat, CentOS, Debian, Oracle Linux…) * Virtualisation : VMware, Proxmox * Bases de données : PostgreSQL * Outils de haute disponibilité / clustering : DRBD, Pacemaker * Outils de supervision : Centreon * Outils ITSM : GLPI * Réseaux et sécurité : VPN, firewall, architecture réseau
Offre premium
Offre d'emploi
Data Engineer DBT senior
PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Mission freelance
Consultant Data & Reporting - Cash Management
NOVAMINDS
Publiée le
Business Analyst
Data management
4 mois
550-650 €
Paris, France
Objectif de la mission · Collecter, produire et valider les données requises afin de réaliser l’ensemble du reporting interne. · Assurer une gestion centralisée de la disponibilité et de la fiabilité des données, dans les délais, pour permettre la livraison du reporting. Prestations demandées · Coordonner avec différentes équipes de reporting et autres parties prenantes (IT, métiers) afin d’intégrer les exigences réglementaires dans le reporting. · Revoir les processus de reporting existants, identifier des opportunités d’amélioration de l’organisation opérationnelle et mettre en œuvre les changements. · Partager et former les équipes de production de reporting aux nouvelles solutions de reporting conçues. · Revoir et piloter le reporting des KPI, garantir les niveaux de service/qualité, et reporter aux parties prenantes via différents comités. · Interagir avec différentes équipes.
Offre d'emploi
Data Scientist
ANDEMA
Publiée le
Databricks
PySpark
Python
12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Offre d'emploi
Administrateur système & gestion de parc - (H/F)
SWING-ONE
Publiée le
Administration linux
Administration système
Azure
6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur système & gestion de parc. Dans un environnement IT hybride et critique, vous assurez l’exploitation, l’évolution, la sécurité et la disponibilité des systèmes d’information. Vous intervenez sur des environnements Windows et Linux, pilotez la gestion du parc informatique et garantissez le maintien en condition de sécurité des équipements (EDR, patch management, conformité). MISSIONS PRINCIPALES : Administrer et maintenir les serveurs du Système d’Information Garantir la disponibilité et la performance des environnements Exploiter et administrer la solution de gestion de parc informatique Garantir l’exhaustivité et la fiabilité des informations Gérer les services d’infrastructure : DNS, DHCP, AD, GPO, NTP, fichiers, impression Automatiser les tâches récurrentes (Bash, PowerShell) Administrer Microsoft 365 (Exchange Online, SharePoint, OneDrive, Teams) Gérer Entra ID (Azure AD) : identités, MFA, accès conditionnels
Offre d'emploi
Data Manager H/F
WINSEARCH
Publiée le
70k-90k €
Laval, Pays de la Loire
Votre mission : Faire de la donnée un levier direct de performance commerciale et de création de valeur métier pour l'ensemble du réseau. Structurer, fiabiliser et interconnecter le patrimoine informationnel de TYLS afin de passer d'une donnée subie à une donnée déclencheuse de business. Architecte du patrimoine Data du réseau Cartographier l'ensemble des flux et sources de données (GI / Facturation / Social / CRM / BI).Définir les standards de structuration, de qualité et de gouvernance.Sécuriser et uniformiser les référentiels.Construire le datalake interne du réseau.Déployer un socle BI robuste (Power BI) pour piloter la performance. 2. Accélérateur de performance commerciale Transformer la donnée en produits data activables : triggers, scoring, segmentation intelligente.Alimenter les équipes commerciales en insights actionnables.Déployer des dashboards réseau orientés business et productivité.Mesurer et piloter la performance par cabinet, par offre, par segment. 3. Chef d'orchestre des briques SI stratégiques Piloter la cohérence et l'interconnexion des outils structurants.Moderniser la brique GI / Facturation, socle de qualité des données internes.Interconnecter le SI Social (SILAE) avec la comptabilité et le CRM.Positionner HubSpot comme référentiel client unique. 4. Bâtisseur d'équipe et leader transverse Créer et structurer la fonction Data au sein du réseau.Recruter et manager un Data Analyst / BI Expert.Définir les priorités, roadmaps et rituels de pilotage.Accompagner le changement auprès des équipes métiers et commerciales. 5. Anticipation des croissances externes Intégrer l'impact des opérations de croissance externe en cours.Anticiper l'augmentation des volumes de flux et la complexification des systèmes.Définir une architecture scalable.Sécuriser les migrations et harmonisations post-acquisition. Responsabilités clés Définition de la roadmap Data & BI du réseau.Construction du datalake et des flux d'interconnexion.Gouvernance et qualité des données.Déploiement des outils BI et indicateurs COMEX.Pilotage des projets transverses SI/Data.Management d'équipe.Reporting direct Direction Générale / COMEX.
Offre d'emploi
Data engineer
SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Offre d'emploi
Consultant IAM / Zero Trust – Audit & Rationalisation Okta
RIDCHA DATA
Publiée le
IAM
MFA
okta
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’une stratégie Zero Trust à grande échelle (BYOD / BYOL et remplacement du VPN), la mission consiste à faire évoluer et rationaliser l’architecture d’authentification ainsi que les processus de gestion des identités. La prestation est structurée en 2 lots : Lot 1 : Études & rationalisation architecture IAM Lot 2 (optionnel) : Continuité de service & bascule IDP 🛠️ Missions principales🔹 Lot 1 – Études & optimisation Rationalisation de l’architecture d’authentification (Okta / Zscaler ZIA & ZPA) Étude du provisioning utilisateurs (SCIM ou autre mécanisme) Simplification des règles d’éligibilité aux solutions d’accès sécurisé Industrialisation et déploiement de FastPass sur postes Windows & MacOS Intégration d’applications filiales dans l’écosystème Okta Participation aux rituels Agile 🔹 Lot 2 – Continuité & sécurisation Définition d’une procédure de bascule vers un autre IDP en cas d’indisponibilité prolongée Documentation des scénarios de continuité d’activité 📦 Livrables attendus Mise à jour du document de conception de la politique Zero Trust Plan de communication pour le déploiement global d’Okta Verify Documentation des changements de configuration Okta & écosystème Procédure de bascule IDP (PRA / continuité de service) Comptes rendus d’avancement réguliers ⚙️ Compétences techniques Impératif : Expertise IAM (Identity & Access Management) MFA & solutions d’authentification Okta (architecture, provisioning, intégration applicative) Protocoles SAML, OAuth2, OpenID Connect Important : Zscaler (ZIA / ZPA) SCIM Gouvernance des identités (IGA) Environnements Zero Trust
Offre d'emploi
Expert Data & Cloud Azure (H/F)
Amiltone
Publiée le
Azure
Cloud
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Offre d'emploi
Data Pipeline Analyst - NL / FR
AEROW
Publiée le
Data analysis
Data management
Data visualisation
2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
Offre d'emploi
Data Analyst
Deodis
Publiée le
PowerBI
PySpark
Python
12 mois
40k-48k €
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Sur site à AIx en Provence, télétravail 2/3 jours par semaine L’objectif est d’intégrer un profil Data Analyst / Data Scientist capable d’exploiter les données du système d’information afin d’identifier des incohérences, de développer des analyses avancées et de contribuer à la mise en œuvre de cas d’usage liés à la détection de fraude. L’intervenant devra exploiter et croiser les données issues du système d’information afin d’analyser leur cohérence et leur impact sur les processus métiers sensibles, notamment dans le cadre de la lutte contre la fraude. Description des missions Prendre en compte les données du domaine « Individu Allocataire » et analyser leurs impacts dans le système d’information. Mettre en œuvre des cas d’usage métiers orientés lutte contre la fraude (ciblage, analyse de données, modèles prédictifs). Réaliser des analyses exploratoires et statistiques sur les données disponibles. Développer et maintenir des produits data réutilisables (scripts, traitements, modèles). Produire des restitutions analytiques à destination des équipes métiers. Respecter les normes, standards et bonnes pratiques en vigueur au sein de l’équipe. Livrables attendus Le titulaire devra produire les livrables suivants : Programmes et scripts de traitement de données dans l’environnement Big Data Hadoop . Développements documentés permettant la réutilisation et la maintenance des traitements. Restitution des analyses sous forme de : présentations PowerPoint , tableaux de bord Power BI .
Mission freelance
Lead Data Scientist
Signe +
Publiée le
Big Data
12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Offre d'emploi
Urbaniste Data (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL
54k-58k €
Roubaix, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6114 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois