L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 836 résultats.
Mission freelance
Profil Data (Data Analyst ou Data Scientist)
Publiée le
Microsoft Excel
PowerBI
Python
2 mois
100-500 €
Paris, France
Pour le besoi de mon client ,je suis à la recherche d’ un profil expérimenté, autonome, avec des compétences DATA forte (Data analyst ou Data scientist senior) Analyser les parcours d’achat des usagers et leurs besoins dans différents types de gares. Construire une planification fiable des besoins en canaux de distribution à horizon 2027 à partir d’un modèle dynamique. Faire évoluer ce modèle vers un outil d’anticipation permettant de projeter les besoins par gare à moyen terme. Compétences attendues : maîtrise de Python, SQL, Excel et Power BI.
Mission freelance
[FBO] DEVELOPPEUR JAVA ET JAVASCRIPT FULL STACK ANGULAR - 1102
Publiée le
6 mois
1-350 €
Paris, France
Télétravail partiel
Concepteur développeurs Open Fullstack expérimentés Java Javascript/NodeJS Angular Spring Boot Architecture Rest Architecture distribuée/micro Services Revue de code Objectifs et livrables Secteur bancaire analyse développement, conception, déploiement en environnement de tests et en production
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
35k-45k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA). Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données). Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités). Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data. Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques. Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Offre d'emploi
Administrateur Atlassian Confirmé
Publiée le
API REST
Confluence
Java
12 mois
35k-50k €
280-410 €
Toulouse, Occitanie
Télétravail partiel
Administrateur Atlassian Confirmé Dans le cadre d’un besoin client, nous sommes à la recherche de 2 profils administrateurs Atlassian confirmé. L’administrateur Atlassian maîtrise les principaux produits de la suite (Jira, Confluence notamment) et met en œuvre rapidement des configurations robustes et sécurisées pour les clients. Il développe continuellement ses compétences. Il réalise des audits techniques et propose un premier niveau de recommandations, rédige les spécifications et contribue à la définition de la solution cible, au découpage des travaux et à l’estimation des charges. Il assure ensuite la mise en œuvre des configurations et, en phase de run, devient le point d’entrée privilégié pour le support de niveau 1, garantissant le respect des SLA et l’escalade vers le niveau 2 lorsque nécessaire. Enfin, il participe aux études internes, assure une veille sur les évolutions Atlassian et contribue à l’analyse de sujets techniques avancés. Administrateur Atlassian confirmé BAC +5 Expérience minimale de 5 ans d’expérience, dont minimum 2 ans sur l’écosystème Atlassian.
Offre d'emploi
Chef de projet MOE Java Mainframe - Bordeaux (H/F)
Publiée le
COBOL
Java
Mainframe
3 ans
50k-58k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Missions principales : Pilotage & gestion de projet Recueillir, analyser et challenger les besoins métiers. Rédiger et maintenir la documentation projet : spécifications techniques, dossiers d’architecture, dossiers de tests, planning. Élaborer et suivre le planning, la charge, les risques et les budgets des projets. Coordonner les équipes de développement Mainframe & Java (internes et externes). Assurer le suivi de production et piloter les mises en production. Garantir la qualité, les délais et la cohérence technique des livrables. Conception & développement Participer à la conception technique des évolutions applicatives. Superviser ou réaliser des développements simples en environnement Mainframe (Cobol, JCL, DB2) ou Java. Définir les normes, bonnes pratiques et patterns d’architecture. Contribuer à la modernisation des systèmes (API, microservices, migration Cloud, Web Services…). Tests & intégration Élaborer les stratégies de tests : unitaires, intégration, non régression. Organiser et suivre les phases de qualification. Gérer les anomalies et orchestrer les correctifs jusqu’à résolution. Relation avec les métiers & communication Assurer l’interface avec les équipes métier, AMOA, production et support. Animer des ateliers, comité de pilotage et points d’avancement. Accompagner les utilisateurs dans la conduite du changement.
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Mission freelance
Chef de projet technique - IaaS et Data
Publiée le
IaaS (Infrastructure-as-a-Service)
12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75
Publiée le
Databricks
Microsoft Fabric
PySpark
12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Mission freelance
Concepteur Développeur IBM DataStage
Publiée le
BI
Data governance
ETL (Extract-transform-load)
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Mission freelance
Ingénieur Test et Validation Data Cloud Snowflake (H/F)
Publiée le
Snowflake
12 mois
380-460 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur(e) Test et Validation Cloud & Data maitrisant Snowflake pour intervenir chez un de nos clients dans le secteur industriel sur La Ciotat Contexte : Pour renforcer l’équipe, nous recherchons un(e) Ingénieur(e) Test et Validation Cloud & Data capable de sécuriser les fonctionnalités et les flux de données, de la conception jusqu’à la production. Vos principales missions : - Vous concevez, planifiez et exécutez les campagnes de validation et de vérification tout au long des itérations. - Vous développez et faites évoluer des tests automatisés adaptés à des volumes de données importants. - Vous mettez en place des scénarios de test pour vérifier la qualité, la cohérence et l’intégrité des données, y compris en production. - Vous analysez les résultats, identifiez les anomalies, les qualifiez et les remontez de manière structurée. - Vous travaillez en étroite collaboration avec les équipes développement, produit et exploitation pour optimiser la couverture de tests. - Vous utilisez des outils d’investigation et de monitoring pour comprendre le comportement du système en conditions réelles. ⚙ Environnement technique du projet : - Maitrise indispensable de Snowflakes - Tests unitaires et fonctionnels avec Mocha et Cypress - Bonnes connaissances Cloud AWS, voire Azure ou GCP
Offre d'emploi
POSTE : Data Analyst Senior – Power BI (H/F)
Publiée le
40k-50k €
Rennes, Bretagne
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Analyst Senior – Power BI (H/F) pour intervenir chez un de nos clients. Contexte : Dans le cadre du déploiement structurant d’un outil de Business Intelligence, vous accompagnez la DSI et les équipes métiers dans la mise en place d’une plateforme décisionnelle moderne. L’enjeu : outiller durablement la donnée , fiabiliser les usages et accompagner le changement autour de Power BI. Votre mission : Au sein d'une équipe projet, vous serez en charge de : -Affiner et piloter la feuille de route de déploiement Power BI -Apporter votre expertise technique pour l’implémentation du socle BI -Installer, administrer et optimiser Power BI -Définir et mettre en œuvre la gouvernance technique et la gouvernance des assets BI -Accompagner les équipes Data et métiers dans l’ adoption de l’outil -Produire la documentation de prise en main et les bonnes pratiques -Piloter le décommissionnement des outils décisionnels existants
Mission freelance
Consultant technico-fonctionnel QA (SAP+Java)
Publiée le
Java
SAP ABAP
SAP ECC6
6 mois
400-700 €
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Aptenia recherche un Consultant technico-fonctionnel QA confirmé pour accompagner un projet stratégique dans un environnement mêlant SAP ECC / S/4HANA et applications Java . Le profil idéal possède une solide expérience en automatisation de tests (Tosca, Trisanti, qTest) et une bonne compréhension fonctionnelle des processus SAP. 🎯 Contexte du poste : Vous interviendrez dans un contexte qualité / automatisation au sein d’une équipe IT dynamique. Votre rôle : 👉 Apporter votre expertise sur l’automatisation des tests SAP + Java 👉 Contribuer à la fiabilité des livrables IT grâce à une stratégie de test robuste ⚠️ Profil habilitable obligatoire 🛠️ Vos missions principales : ▶️ Automatiser les scénarios de tests existants (SAP ECC, S/4HANA, applications Java) ▶️ Créer de nouveaux cas de test à partir des spécifications fonctionnelles ▶️ Exécuter et maintenir les campagnes automatisées (Tosca, Trisanti, qTest) ▶️ Analyser les résultats et remonter les anomalies aux équipes concernées ▶️ Participer à la stratégie globale de tests : régression, end-to-end, non-régression ▶️ Optimiser les scripts existants, améliorer la réutilisabilité ▶️ Collaborer étroitement avec les équipes IT, QA et métiers
Offre d'emploi
Consultant data MDM F/H
Publiée le
45k-50k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies audacieuses, un accompagnement humain adapté, et une capacité à anticiper les enjeux à venir. Chez Coexya Consulting, nous considérons que les femmes et les hommes sont au coeur de la réussite des projets de transformation. Pour renforcer notre équipe, nous recherchons une personne expérimentée pour un poste de consultant Data MDM F/H. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy et notamment de l'offre MDM, vos missions sont les suivantes : - Contribuer au développement de l'offre Data MDM : participation à la structuration de notre démarche, production de contenus méthodologiques, diffusion de bonnes pratiques, veille. - Intervenir, en particulier sur les aspects fonctionnels et technologiques, sur les phases clés associées à la construction d'un projet MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation. - Mener les ateliers de cadrage puis la définition des modèles de données et des processus de gestion des données référentielles. - Concevoir et préconiser les solutions technologiques répondant aux besoins par un benchmark des solutions du marché. - Echanger avec les équipes techniques. - Identifier les opportunités de missions et de besoins chez vos clients. - Participer aux avant-ventes : rédaction d'offres, soutenances orales, valorisation de notre savoir-faire.
Offre d'emploi
AI Engineer
Publiée le
Machine Learning
Pytorch
Tensorflow
1 an
40k-45k €
400-570 €
Paris, France
Télétravail partiel
Mission AI Engineering (expertise avancée en IA traditionnelle et Gen IA), pour l'accompagnement de nos équipes IT dans la conception, le développement et l'intégration de nos cas d'usages IA en production. Mise à l'échelle des modèles développés, en garantissant leur performance, leur sécurité et leur monitoring dans l'environnement de production. Responsabilités Analyse en profondeur des besoins métier pour concevoir des solutions d'IA sur mesure, performantes, évolutives et économiquement viables. Interaction avec les équipes IT et Opérations pour l'intégration et la maintenance des modèles. Instauration d'une culture de partage de connaissances en IA au sein de l'IT, en organisant des ateliers, des formations et des sessions de mentorat pour faire monter en compétence les équipes. Évaluation régulièrement les solutions d'IA déployées pour en mesurer l'impact, proposer des améliorations continues et assurer une gestion rigoureuse des coûts associés. Support technique et recommandations stratégiques aux équipes projets, tout en veillant à l'optimisation des coûts et à l'efficience des ressources déployées. Garantie de la conformité aux standards de sécurité et aux bonnes pratiques de développement. Compétences techniques Expertise en apprentissage automatique & profond (Machine Learning, Deep Learning...), en traitement du langage naturel (NLP, LLM, Transformers, …), et sur les domaines/technologies pertinents de la Gen IA (RAG, Agent IA, parseur des documents, évaluation et monitoring, etc…) Maîtrise des langages de programmation (e.g. Python...) et des frameworks d'IA (TensorFlow, PyTorch...) et de GenIA (LangChain, LangGraph…) Outils de gestion de données et de modélisation (SQL, NoSQL, Hadoop, Spark, etc.), ainsi que la capacité à développer et à déployer des solutions d'IA dans des environnements de production à grande échelle. Pratiques pour le déploiement comme le MLOPS/GenIA OPS, pour la surveillance et la maintenance des systèmes d'IA en production, garantissant ainsi une transition fluide et efficace du développement à la production. Principes de l'ingénierie logicielle, y compris le développement agile, l'intégration continue et le déploiement continu (CI/CD). Environnements cloud (IBM en particulier) Autres compétences Métier d'Asset Management Aptitude à communiquer des concepts techniques complexes de manière claire et pédagogique, facilitant ainsi le transfert de connaissances. Résolution de problèmes complexes.
Offre d'emploi
Développeur Java (H/F)
Publiée le
J2EE / Java EE
Spring
1 an
Paris, France
Nous recherchons un Développeur Java pour rejoindre une petite équipe en charge du développement et de l'évolution d’applications backend métier et business au sein d'un grand groupe. Vous interviendrez sur toutes les phases du cycle de développement : analyse, conception, implémentation, tests et mise en production. Vous travaillerez en collaboration avec les équipes Produit, QA et DevOps dans un environnement agile favorisant l'amélioration continue et l’innovation.
Offre d'emploi
Administrateur Développeur Mainframe et Systèmes Ouverts (linux)
Publiée le
Administration linux
Java
1 an
40k-45k €
100-440 €
Paris, France
Télétravail partiel
Contexte Au sein d'une division dédiée aux plateformes Mainframe, l'équipe en charge de l'administration, développement et déploiement d'une solution d'anonymisation de données sur Mainframe (MVS) et Systèmes ouverts (OPEN). Missions principales Assurer le support et le maintien de l'application sur les environnements MVS et OPEN, priorité actuelle sur OPEN (Linux). Participer au développement des évolutions de la solution sur les deux environnements. Préparer, produire et suivre les prises d'images de partitions Mainframe pour alimenter les environnements de Recette et Qualification avec des données anonymisées. Accompagner les équipes lors des montées de versions ou implémentations de la solution.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2836 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois