L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 757 résultats.
Offre d'emploi
Business Analyst - Energie Eolienne H/F
Publiée le
50k-60k €
Crédit Agricole du Languedoc, Occitanie
Télétravail partiel
Contexte de la mission : Viveris accompagne ses clients industriels dans la supervision informatique de ses actifs partout dans le monde. Dans ce cadre, nous recherchons un Business Analyst avec des compétences métiers dans l'énergie éolienne pour accompagner notre client dans le développement et l'amélioration de leurs outils de supervision des parcs éoliens. Votre mission sera de transformer les besoins métier en exigences fonctionnelles concrètes, et veiller à leur bonne mise en oeuvre tout au long du cycle de vie produit. Vous êtes intégré dans une équipe transverse au sein d'un programme structurant pour notre client. Vous travaillez en collaboration avec des Product Manager et des Product Owners. Responsabilités : - Apporter une expertise métier et assumer un devoir de conseil sur les sujets relatifs à l'énergie éolien (processus, réglementation, KPI). Et ce de façon à traduire les besoins opérationnels en exigence fonctionnelles claires ; - Travailler en étroite collaboration avec les PO et PM pour aligner la vision produit avec les besoins métiers ; - Valider la cohérence fonctionnelle des développements et des tests ; - Contribuer à la gestion des tickets utilisateurs pour faire évoluer les solutions (analyse, traitement, priorité) ; - Mener une veille métier afin d'anticiper les évolutions et avoir une démarche d'amélioration continue.
Mission freelance
Ingénieur DataOps / SRE Data
Publiée le
5 mois
500 €
France
Objet de la prestation Le consultant interviendra pour assurer le support opérationnel et contribuer à la fiabilité, la performance et la bonne utilisation des plateformes Big Data. Missions principales Assurer le support de niveau 2 en production (PROD) sur les plateformes Spark, Airflow et Starburst. Prendre en charge la gestion des incidents , l'analyse des causes racines ( RCA ) et la résolution. Contribuer à l' optimisation des traitements Spark sur Kubernetes : tuning, configuration, dimensionnement, gestion des ressources. Optimiser et fiabiliser l' orchestration Airflow/Astronomer . Participer à la gestion des catalogues Starburst (Trino) et au suivi des performances des requêtes distribuées. Accompagner les équipes métiers pour un usage efficace, sécurisé et performant des plateformes. Maintenir et enrichir la documentation d'exploitation , procédures et guides utilisateurs. Participer à l' amélioration continue de l'écosystème : automatisation, standardisation, observabilité, fiabilité. Compétences techniques attendues Expertise en environnement Data / Production Expérience confirmée en exploitation Big Data en production . Technologies (au moins 2 maîtrisées) Kubernetes / IKS / OpenShift Apache Spark Apache Airflow / Astronomer Starburst (Trino) Compétences associées Maîtrise du support et du troubleshooting sur des services déployés sur Kubernetes (Helm charts, opérateurs…). Solide expertise en monitoring / observabilité : logs, métriques, dashboards. (Dynatrace, Kibana, Grafana…) Bonnes pratiques d'exploitation de traitements distribués. Connaissances approfondies en : Tuning Spark Profiling applicatif Gestion fine des ressources (executor, driver, mémoire, shuffle…) Compétences en scripting : Bash, Python, Ansible (appréciées). Maitrise des chaînes CI/CD : Git, Jenkins, GitLab CI… Compétences en sécurité : Hashicorp Vault Secrets , PKI, gestion des certificats. Compétences transverses Excellente capacité d'analyse et de diagnostic d'incidents complexes. Rigueur et fiabilité en environnement de production critique. Capacités rédactionnelles pour formaliser procédures, guides et rapports. Bon relationnel et capacité à accompagner les équipes métiers. Français et anglais opérationnel. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Offre d'emploi
Data Engineer (H/F)
Publiée le
Big Data
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Mission freelance
Expert Openstack - Leader technique
Publiée le
Ansible
DevOps
OpenStack
6 mois
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Au sein d'un grand groupe en pleine transformation, vous intégrez l'équipe Openstack pour relever un challenge stratégique : la refonte et l'industrialisation du socle Cloud Privé. L'environnement est composé de plusieurs plateformes OpenStack déployées par vagues successives. L'objectif est d'unifier ces infrastructures en une plateforme socle résiliente multi-sites, destinée à devenir l'hébergeur principal des clusters Kubernetes du groupe à l'échelle internationale. Vos Responsabilités Leadership Technique & Coaching : Véritable mentor, vous assurez la montée en compétences d'une équipe composée de profils internes. Vous guidez les choix d’architecture, challengez les solutions et sécurisez le delivery. Ingénierie de pointe : Vous assurez le maintien en conditions opérationnelles (MCO) et l'évolution des plateformes OpenStack dans un environnement critique fonctionnant en 24/7. Stockage Haute Disponibilité : Vous pilotez l’administration et l’optimisation des clusters Ceph pour garantir la résilience et l'intégrité des données. Industrialisation & Transition : Vous accélérez l'automatisation via Ansible et préparez activement le socle pour l’arrivée massive de Kubernetes/OpenShift. Documentation & Gouvernance : Vous êtes garant de la documentation technique (DAT/DEX) et de la transmission des connaissances pour éviter toute perte d'expertise.
Mission freelance
Expert Analyste data sénior
Publiée le
Confluence
JIRA
Slack
12 ans
400-510 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Expert(e) Analytics pour rejoindre la Direction Data de notre client. Missions principales Cadrage et accompagnement des équipes dans l’implémentation des outils data : identification des pré-requis, risques, parties prenantes, facteurs clés de succès et indicateurs de performance Pilotage des projets de fond : déploiement et suivi de l’outil de monitoring automatisé, enrichissement du tracking site-centric Monitoring automatisé et analyse des alertes Coordination avec les équipes Data, Technique, Offres numériques et RGPD Reporting et amélioration continue des outils et indicateurs Profil recherché 5+ ans d’expérience sur tracking / analytics Maîtrise de Piano, Médiamétrie, Netvigie / Seenaptic, TagCommander Compétences en gestion de projet (Jira, Confluence, Slack) Parfaite maîtrise du français Présence sur site : environ 50% Si vous êtes intéressé(e) ou connaissez quelqu’un qui pourrait l’être, n’hésitez pas à me contacter pour plus d’informations. Cordialement,
Offre d'emploi
Développeur .NET / Azure Senior
Publiée le
.NET
ASP.NET
Microsoft SQL Server
2 ans
Paris, France
Télétravail partiel
Mission : Vous participerez au développement et à l’évolution d'une application, hébergée sur Microsoft Azure , en collaboration avec les équipes IT et Business. Votre rôle sera de garantir la qualité technique, la cohérence des modules et le respect des bonnes pratiques. Responsabilités principales : Développer les nouveaux composants de l’application. Assurer la cohérence technique et la qualité du code (tests unitaires, modèles de données, bonnes pratiques). Rédiger les spécifications techniques et documents nécessaires (architecture, exploitation). Planifier les travaux, estimer les charges et identifier les risques. Collaborer avec les équipes infrastructures pour la mise en place de l’environnement Azure. Tester et déployer l’application sur Azure, corriger les anomalies. Accompagner les phases de validation (UAT, PROD) et garantir la qualité des livrables. Réaliser les tests et assurer la qualité des modules développés. Profil recherché : Diplôme Bac+5 (école d’ingénieur ou équivalent). Expérience de 5 ans minimum en développement informatique. Expertise sur Azure , .NET , API REST , et bases de données. Maîtrise des standards de qualité (Sonar, PR review) et des pratiques Agile (SCRUM) et DevOps . Français et anglais : niveau avancé. Autonomie, rigueur, esprit d’équipe et bonnes capacités de communication. Connaissance des marchés financiers ou de la gestion d’actifs (atout). Compétences techniques : Obligatoires : .NET 8+, C#, Core Microsoft SQL Server Blazor WebAssembly REST API Souhaitées : HTML5 / CSS3 Visual Studio 2022 GIT, Azure DevOps, Sonar Cloud Postman
Mission freelance
Sustainability & Green IT Lead (GenAI / Media) h/f
Publiée le
GenAI
Google Cloud Platform (GCP)
3 mois
400-610 €
Clichy, Île-de-France
Télétravail partiel
Objectifs de la mission Définir une stratégie de durabilité pour les services GenAI Mesurer, suivre et piloter l’impact CO₂ et énergétique Influencer les choix techniques et produits sous l’angle environnemental Responsabilités Définir les guidelines Green IT & éco-design pour l’ensemble des services AI tech Modéliser, mesurer et monitorer la consommation énergétique et CO₂ (modèles, infra, data, media processing, stockage) Challenger les choix d’architecture (modèles IA, cloud, pipelines data) Collaborer avec les équipes Produit, Tech, Data et Design Construire des dashboards & KPI pour le pilotage et la prise de décision Réaliser une veille & benchmark des standards et bonnes pratiques Sustainable AI / Green IT
Mission freelance
Data Engineer
Publiée le
Data analysis
Dataiku
ELK
3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle
Publiée le
Data analysis
IA
1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Offre d'emploi
Data Engineer - Nantes
Publiée le
ETL (Extract-transform-load)
Informatica
Semarchy
40k-43k €
Nantes, Pays de la Loire
Nous recherchons un Ingénieur Data / Développeur ELT en CDI, passionné par la manipulation de données et les environnements analytiques. Vous participerez à la conception, l’alimentation et l’optimisation de nos flux de données stratégiques. vos missions : Concevoir, développer et maintenir des flux d’intégration de données. Participer à l’architecture et à l’industrialisation des traitements ELT/ETL. Travailler sur des environnements manipulant de très gros volumes de données. Collaborer avec les équipes métiers et techniques pour garantir la qualité et la cohérence des données. Optimiser la performance des requêtes et des pipelines de données.
Offre d'emploi
Lead développeur Java - Cloud AWS (H/F)
Publiée le
Apigee
AWS Cloud
Azure
7 jours
36k-48k €
350-450 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Contexte de la mission La mission consiste à rejoindre et renforcer l’équipe DATA/API/IOT en tant que lead développeur-Lead Technique. L’équipe est constituée de 2 équipes distinctes, une première qui traite les sujets API (AWS/Apigee) et IOT (AZURE/IOT HUB) et une seconde qui traite les sujets Data (AWS/SQL Server). Nous fonctionnons en mode Agile. Objectifs et livrables L’activité sera : De concevoir, développer et documenter des API pour les chaînes de valeur de la DSI qui n’ont pas la capacité à le faire ou bien de les accompagner dans la réalisation de ces API. De traiter les sujets de MCO et de cybersécurité pour nos socles AWS et AZURE. Apporter votre aide sur divers sujets techniques en fonction des besoins des équipes. Réaliser votre activité en relation avec les architectes, référent cyber et référent AWS/AZURE. Réaliser la conception technique de la migration technique de notre API Management.
Mission freelance
Data Scientist (h/f)
Publiée le
1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Mission freelance
Network Ops Engineer (réseau & devops)
Publiée le
Administration réseaux
Google Cloud Platform (GCP)
Python
3 ans
100-510 €
Lille, Hauts-de-France
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing), expérience significative sur les services réseaux d’au moins un fournisseur de cloud majeur (GCP, Azure). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).
Offre d'emploi
Administrateur CRM Salesforce Service Cloud (H/F)
Publiée le
Cloud
CRM
Salesforce Sales Cloud
254 jours
40k-45k €
400-510 €
Châtillon, Île-de-France
DÉPLOIEMENT Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager MAINTENANCE Maintien en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD
Mission freelance
Business Analyst senior/Expert Data – Asset Management
Publiée le
Architecture
Business Analyst
Data Warehouse
2 ans
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4757 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois