L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 423 résultats.
Mission freelance
IT & Data Integration Manager
TEOLIA CONSULTING
Publiée le
ERP
Google Cloud Platform (GCP)
Supply Chain
6 mois
Paris, France
Dans le cadre d’un programme de transformation stratégique autour d’un outil d’Integrated Business Planning (IBP), un grand groupe international recherche un IT Data & Integration Manager. Ce programme vise à connecter plusieurs systèmes (ERP, outils métiers, plateformes data) afin de fiabiliser la donnée et améliorer la prise de décision à l’échelle globale. Missions : Piloter la mise en place des flux de données et interfaces entre systèmes Définir les règles de transformation des données et les spécifications fonctionnelles / techniques Coordonner les équipes internes (Business, IT) et l’intégrateur Suivre la delivery en Agile (backlog, sprints, Jira) Garantir la qualité, la cohérence et la fiabilité des données Participer aux phases de tests (UAT, validation, mise en production) Anticiper et sécuriser le passage en RUN (monitoring, performance, stabilité)
Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision
Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker
6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Offre d'emploi
Data Engineer GCP
K2 Partnering Solutions
Publiée le
Google Cloud Platform (GCP)
48k-57k €
Belgique
En tant que Data Engineer, vous serez impliqué(e) dans la conception, le développement et l’optimisation de solutions data modernes sur Google Cloud Platform. Vous bénéficierez : d’un accompagnement terrain (on-the-job training) , d’un encadrement par des experts reconnus , d’un environnement collaboratif mêlant équipes IT et métiers . C’est une opportunité unique de développer vos compétences tout en évoluant dans une équipe dynamique et conviviale 🌟 Pourquoi nous rejoindre ? Projet de transformation stratégique à forte visibilité Utilisation de technologies modernes et innovantes Environnement international et collaboratif Réelles opportunités d’apprentissage et d’évolution
Mission freelance
Architecte Solution Cloud-Native
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
450-530 €
Paris, France
Contexte de la mission Au sein du département Urbanisations et Applications de la Direction des Systèmes d'Information (DSI) de notre groupe audiovisuel français, nous gérons une quarantaine d'applications couvrant divers domaines, tels que la planification, l'optimisation des ressources, la gestion des incidents, et bien d'autres encore. Avec la transition de nos infrastructures IT vers le Cloud, il est devenu essentiel de faire évoluer nos modèles d'architectures logicielles afin de répondre efficacement aux besoins des différentes directions métiers. Nous recherchons une expertise en architecture solution pour travailler en étroite collaboration avec notre architecte d'entreprise. Cette mission est cruciale pour assurer l'alignement de nos projets IT avec les exigences fonctionnelles et l'écosystème de France Télévisions. La personne retenue devra proposer des modèles d'architectures logicielles Cloud-Native et en assurer la mise en œuvre. Objectifs et livrables Moderniser nos infrastructures IT afin de garantir une meilleure efficacité de nos projets. Proposer des modèles d’architectures logicielles Cloud-Native adaptés à nos besoins spécifiques. Piloter la mise en œuvre des principes d'architecture au sein des projets en cours. Collaborer avec les équipes projets, Cloud, sécurité, réseaux et exploitation pour concevoir des architectures sur mesure. Fournir des modèles et templates de développement, notamment à travers GitLab-CI. Accompagner et conseiller les équipes projet lors de l'implémentation des architectures. Superviser les développements pour assurer leur cohérence avec le modèle architectural défini. Assister l'Architecte d'Entreprise dans les travaux de la Design Authority et déployer ces architectures sous forme de standards et normes de développement.
Offre d'emploi
Développeur Back End Node SQL H/F
ADSearch
Publiée le
60k-70k €
Biot, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Back End Node SQL H/F - Sophia-Antipolis - 55/60K€ - 3 jours de TT/sem Je recrute pour une Fintech sur Sophia qui travaille avec les plus grandes banques internationales, un Lead pour accompagner une petite équipe de 3 développeurs. Tu souhaites travailler sur des plateformes data à forte valeur ajoutée utilisées partout dans le monde par des pointures ? Tu aimes concevoir des systèmes robustes, manipuler de grands volumes de données et intervenir sur toute la chaîne technique ? Tu recherches un environnement exigeant et stimulant ? Alors ce poste est fait pour toi ! TON POSTE Rejoins les 3 Développeurs Back, chargée de la gestion et la qualité des données financières, de la conception, au développement en passant par la maintenance sur des sujets back-end, APIs, bases de données, pipelines de données, Cloud, ... Tu es attendu pour : - Accompagner techniquement l'équipe sur des sujets complexes (main dans la main avec le CTO), - Partager les bonnes pratiques de développement et d’architecture, - Développer et maintenir la plateforme, - Intégrer et superviser des flux et la qualité de données, - Concevoir et faire évoluer des solutions de web scraping, - Garantir la fiabilité, la performance et la résilience des systèmes.
Mission freelance
Business Analysts expérimentés sur Workday
Codezys
Publiée le
Business Analysis
Data management
Formation
12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F
STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)
Pickmeup
Publiée le
Azure
Kubernetes
Terraform
2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
Mission freelance
Directeur de Programme Data
CONCRETIO SERVICES
Publiée le
Data management
Jira Align
12 mois
400-600 €
Pays de la Loire, France
Dans le cadre d'une stratégie de digitalisation ambitieuse, notre client — un grand groupe financier — lance la Saison 2 d'un portefeuille de 15 solutions nativement digitales à déployer en 18 mois. L'objectif : mettre à disposition des clients des parcours de souscription et de gestion de produits 100% digitaux, à grande échelle. Un programme transverse qui mobilise 24 tribus, 10 Pôles Utilisateurs et plus de 12 entités du groupe. Une machine en mouvement, forte des succès de la Saison 1, qui cherche maintenant à accélérer. Votre mission Au cœur du dispositif de pilotage, vous êtes le garant de la delivery : Sécuriser le lancement de la Saison 2 : cadrage des Business Epics, structuration dans les outils (JIRA Align), embarquement des parties prenantes Piloter la fabrication en lien direct avec les Leaders de Tribu : planification, suivi des engagements délais/budget/qualité, arbitrages Animer la gouvernance : comités de pilotage, reporting Direction Générale, coordination faîtière Groupe Gérer les risques : identification, qualification, plans de mitigation, escalade si nécessaire Contribuer à la capitalisation : post-mortem, bonnes pratiques, recommandations pour les programmes futurs
Mission freelance
fullstack developer (data experience)
Hanson Regan Limited
Publiée le
Angular
Java
Python
12 mois
400-570 €
Paris, France
Hanson Regan recherche un développeur full stack pour une mission de 12 mois à Paaris. Projet axé sur les données et la visualisation de données. Nous recherchons un candidat justifiant d'une expérience professionnelle de plus de 4 ans pour une mission de longue durée à Paris. Ce poste s'inscrit dans le cadre d'un projet d'envergure et offre l'opportunité de collaborer au sein d'une équipe dynamique et reconnue. Compétences requises : Solide expérience en Python pour le développement backend et le scripting. Bonne connaissance de Java avec le framework Spring (Spring Boot de préférence). Expérience en Scala pour le développement d'applications évolutives et performantes. Maîtrise d'Angular 16+ pour le développement frontend moderne. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
Mission freelance
Data Analyst Lead – Gouvernance & Conception Data
Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI
300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Offre d'emploi
Junior business data scientist - Marketing & commercial effectiveness
█ █ █ █ █ █ █
Publiée le
DevOps
Microsoft Excel
Python
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Développeur ETL Talend
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Rennes, Bretagne
Contexte de la mission : Dans le cadre d'une montée en charge sur plusieurs projets Data, nous recherchons un développeur Talend pour un de nos clients · Le développeur doit être basé en Ille-et-Vilaine Tâches à réaliser : Travaux Talend pour répondre aux besoins métier · Développement script PowerShell pour chargement de fichiers · Création et mise à jour de la documentation technique Compétences recherchées : Obligatoires : Talend Data Intégration ou Talend Cloud Principe de modélisation Décisionnelle GIT / Gitlab Optionnelles : Base de données Cloud (GCP, Snowflake) PostgreSQL PowerShell DBT Expérience nécessaire : Minimum 4 ans d'expérience en alimentation ETL Méthodologie : Cycle V & Agile Langues : Français
Mission freelance
Data scientist IA Générative
MLMCONSEIL
Publiée le
IA Générative
Python
1 an
100-480 €
Paris, France
Recherche d’un Data Scientist senior (5 à 10 ans d’expérience) avec une expertise confirmée en IA générative, notamment sur des cas d’usage basés sur RAG. Le profil devra maîtriser Python ainsi que les outils de l’écosystème GenAI tels que LangChain, Hugging Face et les bases vectorielles. . . . . . . . .. . . . . . . . .. . . . . .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6423 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois