L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 419 résultats.
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Mission freelance
Chef(fe) De Projet Data
Trait d'Union
Publiée le
Big Data
1 an
400-600 €
Île-de-France, France
Au sein de la Direction des Systèmes d’Information, vous intervenez comme Chef(fe) de projet Data rattaché(e) au pôle Architecture et Data. Dans un contexte de transformation des flux de données, impliquant à la fois une évolution méthodologique et un changement de socle technologique, vous pilotez la conception, l’évolution et la mise en œuvre de solutions d’échange de données. Votre rôle consiste à garantir la bonne circulation, la cohérence et la qualité des données entre les différentes applications, qu’elles soient internes ou opérées via un centre de services externe. Vous êtes responsable du cadrage, du pilotage et du suivi opérationnel des projets data, en veillant au respect des délais, des coûts et de la qualité des livrables. Missions : Recueillir, analyser et formaliser les besoins auprès des responsables applicatifs et des parties prenantes. Planifier les différentes étapes des projets data, définir les jalons et assurer le suivi des délais et des livrables. Coordonner l’ensemble des intervenants (équipes internes, partenaires, centre de services externe). Garantir la cohérence et la continuité des flux de données au regard de l’architecture cible du système d’information. Rédiger ou mettre à jour les spécifications fonctionnelles et techniques nécessaires aux développements. Piloter les phases de tests et de recette des livrables. Assurer un reporting régulier sur l’avancement des projets auprès des interlocuteurs concernés.
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Offre d'emploi
Data engineer Azure
UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks
1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Mission freelance
DATA SCIENTIST
Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Offre d'alternance
Data Engineer (Databricks /Azure)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
CI/CD
Châtillon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
recherche profil CP/Data analyste BI - Ecommerce
Mon Consultant Indépendant
Publiée le
Data analysis
3 mois
500-550 €
Lyon, Auvergne-Rhône-Alpes
Je suis à la recherche de ce profil pour l'un de nos clients en région lyonnaise : Je suis en recherche d’une prestation sur un profil confirmé de Chef de projet/Business Analyst Data BI . Pour rappel, notre équipe Data Consumer Solutions travaille principalement sur des sujets marketing/CRM/e-commerce/services liés à nos données Consommateurs (collectés à travers des touchpoints digitaux : Apps, Site Webs, Produits connectés, Advertising platforms…). Pour cet appel à compétence nous recherchons un profil connaissant le e-commerce. Ce profil rejoindrait une équipe projet mixte composée d'experts data IT et des équipes e-commerce (D2C) collaborant sur la collecte et l’exploitation de données de nos sites web : Ventes & Tracking Analytics Il aurait un focus fort sur la partie collecte de données depuis des sources tierces. Les tâches principales seront : · Analyser les besoins exprimés par le Business Owner pour identifier les champs (API/Autres sources) à récupérer pour y répondre et proposer des solutions en collaboration avec nos experts Data. · Coordonner les tâches de setup d’outil de collecte et de build de nos Data Engineers / Experts Dataviz pour récupérer la donnée dans notre Datalake, la préparer et la transformer afin d’alimenter nos Dashboards Qlik ou des Datasets mis à disposition de Data Analysts. · Faire des analyses/requêtes Data pour tester et valider les solutions mises en place, ou répondre à des questions métiers. · Rédiger la documentation technico-fonctionnelle au fil de l'avancement du projet pour en assurer la continuité et l'évolutivité · Former et accompagner les key users sur les applications. Les compétences clés recherchées sont : · Business Analyse (expertise fonctionnelle) · Gestion de projet en environnement agile · Expérience en projets Data/BI sur des périmètres liés au e-commerce/D2C (ce critère sera clé pour notre choix, afin de permettre une montée en puissance rapide sur ce périmètre métier) · Anglais car les solutions sont déployées à l’international et les sources de données sont worldwide La mission serait de plusieurs mois (avec une fin liée à un retour de congé maternité) et en temps plein, avec chaque semaine 2 jours home office et 3 jours dans nos locaux (accessible en TCL). Notre objectif est d’avoir sélectionné et positionné une personne sur ce poste dès que possible en mars.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
PROPULSE IT
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Ingénieur systèmes et réseaux H/F
HAYS France
Publiée le
35k-40k €
Mulhouse, Grand Est
Les missions sont les suivantes : Auditer les infrastructures des clients Identifier en autonomie des améliorations et projets à mener Conseiller les partenaires sur les bonnes solutions techniques à envisager Déployer des infrastructures techniques (Serveurs, solutions systèmes ou réseaux) Migrer les installations techniques Faire évoluer les solutions et logiciels des partenaires Intervenir en niveau 3 sur les incidents les plus complexes et urgents Créer une relation de confiance et professionnelle avec les partenaires
Offre d'emploi
Ingénieur réseaux et sécurité F/H
AIS
Publiée le
Réseaux
1 mois
37k-42k €
210-420 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte votre mission s'inscrira dans le cadre de projets d'évolution et de maintien en conditions opérationnelles des infrastructures réseau et sécurité. L'équipe que vous intégrerez est chargée de l'architecture/design du réseau, de la qualification technique et de l'intégration des architectures en laboratoire. Le détail de vos missions sera le suivant : - Réaliser les qualifications d'équipements (routeur, commutateur, firewalls). - Monter et tester des maquettes de référence conformes aux dossiers d'architecture. - Rédiger les documentations afférentes (ex : rapport de qualification). - Assurer le support N3 aux équipes de production. - Assurer des astreintes ou des présences sur horaires décalés (ponctuellement). Environnement technique à maîtriser : Equipements Juniper (routeur, firewall, switch) WAN avec la connaissance des protocoles IS-IS, MPLS, BGP Equipement Huawei Debugging des échanges TCP/IP Protocoles de supervision Utilisation des API
Offre d'emploi
Business Analyst / Data Analyst
R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Mission freelance
Ingénieur Système et Réseau
ALLEGIS GROUP
Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)
6 mois
Rennes, Bretagne
Contexte du poste Au sein de l’équipe Infrastructure & Sécurité du SI, vous participez à la conception, l’évolution et le maintien en condition opérationnelle de l’ensemble des infrastructures du Groupe. Vous intervenez sur des environnements complexes mêlant systèmes, réseaux, sécurité, cloud public (GCP) et technologies open source. Vous jouez un rôle d’expert technique, de pilote de projets et de support avancé. Missions principales 1. Administration Système Conception, mise en œuvre, optimisation et MCO des infrastructures SI. Gestion et administration des environnements : Serveurs Windows & Linux VMware Stockage NetApp / IBM Sauvegardes Veeam Administration des services Microsoft : Exchange Online, AD, Azure AD . Participation à des architectures Open Source . Mise en place et exploitation de solutions Kubernetes (containerisation & orchestration). Gestion des pipelines CI/CD via GitLab CI . Infrastructure as Code avec Terraform pour des environnements GCP . 2. Administration Réseau & Sécurité Administration et supervision des équipements et solutions de sécurité : FW, Proxy, Reverse Proxy, WAF, PAM, SSE, EDR, SSO . Gestion et exploitation des environnements réseaux : Matériel Cisco (dont Nexus) Réseaux LAN / WAN / SDWAN Protocoles TCP/IP, routage 3. Transverse Apporter une expertise technique et proposer des solutions adaptées aux besoins métiers. Piloter les projets réalisés par les intégrateurs. Rédiger et maintenir la documentation : Procédures infra (architecture, sauvegarde, réinstallation). Documents à destination du CSI ou de l’exploitation. 4. Pilotage de projets Conduire les projets de bout en bout, de la conception à la mise en production. Suivre l’avancement, assurer le reporting et piloter les prestataires. Rédiger les procédures d’exploitation et la documentation technique. 5. Support utilisateurs (Niveau 2) Prendre en charge les escalades niveau 2 en provenance des équipes CSI et exploitation. Traiter les demandes applicatives, matérielles et logicielles. Assurer une veille technologique afin de proposer des solutions innovantes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6419 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois