L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 004 résultats.
Offre d'emploi
Data Engineer IA (H/F)
STORM GROUP
Publiée le
IA
Large Language Model (LLM)
3 ans
48k-58k €
450-550 €
Île-de-France, France
La mission principale du profil retenu sera • Concevoir et développer des solutions de traitement de données complexes • Implémenter solutions exploitant des modèles d'IA générative • Participer à la mise en place de prompts et de RAG • Collaborer étroitement avec les métiers et les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. • Démontrer une expérience avérée dans le traitement de données non structurées ainsi que la maitrise de traitement de fichiers de différents types tels que Word, PDF, PowerPoint, CSV
Offre d'emploi
Data architect / Administrateur SAP BO BI H/F
VIVERIS
Publiée le
40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)
Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Offre d'emploi
Architecte Big Data
HN SERVICES
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform (GCP)
6 mois
40k-70k €
400-550 €
Paris, France
Vous serez responsable de la conception et de la mise en œuvre d'architectures optimisées et scalables au sein d'une plateforme data, analytique et IA basée hébergée en hybride Cloud/On Premises. Ce poste nécessite une compréhension approfondie de l’écosystème Data en terme de technologies et de pratiques à l’état de l’art (i.e. Hybridation, Datamesh etc…) Les principales activités sont les suivantes : - Collaborer avec les équipes data (Data Engineer, Data Analyst, Data Scientist, Business Analyst, Product Owner, Chef de projet, etc.) pour comprendre les exigences en matière de données, d'usages et de capacités et concevoir et formaliser l’architecture adaptée - Accompagner les équipes data dans la mise en œuvre des architectures définies - Assurer la qualité, l'intégrité et la sécurité des données dans l'environnement de la plateforme data, analytique et IA - Optimiser les processus d'ingestion de données et contribuer à la définition et la mise en œuvre des politiques de gouvernance des données - Évaluer et préconiser les technologies et outils appropriés pour le stockage, le traitement et l'analyse des données - Proposer des optimisations pour résoudre les problèmes d’architecture liés au stockage, à l’accès et à l’exploitation de la plateforme data - Une expérience sur l’accompagnement de projet en lien avec des migrations de plateforme data On premises vers le Cloud (idéalement GCP). Compétences techniques ou métier recherchées : - Vous avez une expérience minimale de 6 ans sur un poste d'architecte data et vous avez une expérience de mise en œuvre d'une plateforme basée sur une technologie Cloud. - Vous avez obtenu un diplôme dans le domaine IT et êtes spécialisé dans la Data. - Vous avez une expérience similaire sur la modélisation des données. - Concepts et technologies liés au Big Data (par exemple, Apache Spark, Hadoop) et aux bases de données SQL/NoSQL. Compétences comportementales recherchées : - Coopérer et fonctionner en transversal - Interagir facilement avec les autres - Négocier et convaincre - Proposer des initiatives ou des solutions - S'adapter aux changements. Compétence complémentaire : - Maitrise des Plateformes Data GCP, Spark, Python, SQL, Kafka, MongoDB Excellente connaissance des concepts et technologies des datalake, datawarehouse / entrepôts de données, lakehouse, des plateformes cloud telles que Google Cloud.
Offre d'emploi
Senior IT PMO – Trading / Data Platform Migration – Remote EU
Avanda
Publiée le
Gestion de projet
JIRA
Market data
2 ans
Paris, France
Avanda est une société de conseil en informatique basée en Suisse. Nous recherchons actuellement un(e) PMO IT Senior pour rejoindre notre équipe internationale chez notre client final mondial dans la région de Zurich. Il s'agit d'une opportunité à long terme (le projet s'étend jusqu'en 2028). Le travail à distance est accepté, avec une présence sur site toutes les 4 à 6 semaines. En tant que PMO IT Senior, vous intégrerez un programme pluriannuel de migration de données de marché vers une plateforme Data & Analytics dans le secteur du Trading. En tant que PMO, vous apporterez votre soutien aux responsables de chantiers et au Chef de Projet dans la planification, la coordination et le pilotage quotidien du programme à travers plusieurs workstreams. Ce poste est ouvert en full remote (UE). VOS RESPONSABILITÉS Accompagner les responsables de chantiers dans la planification, le suivi des avancements et la coordination inter-workstreams Préparer et animer les réunions de projet : ordre du jour, comptes rendus, suivi des actions et registre des décisions Maintenir la documentation projet, les rapports d'avancement et les mises à jour à destination du management Suivre les points ouverts, les risques, les problèmes et les dépendances entre les workstreams, et escalader au Chef de Projet si nécessaire Contribuer à la préparation des documents destinés aux instances de pilotage Soutenir l'intégration des nouveaux membres du projet et assurer l'administration générale du projet
Mission freelance
Business analyst
Mindquest
Publiée le
Business Analysis
CRM
Data quality
1 an
400 €
Paris, France
Réaliser des activités de Business Analysis sur des projets liés aux données clients et au référentiel CRM Cadrer les projets : définition du scope, analyse d’impact et coordination des parties prenantes Challenger les équipes et apporter une expertise senior sur les sujets data et compliance Garantir la cohérence, la qualité et la conformité des données clients Participer aux analyses fonctionnelles et techniques autour des référentiels clients Effectuer des requêtes SQL et valider la qualité des données Contribuer aux sujets de gouvernance de données et de customer compliance (RGPD, traitement des données) Collaborer avec les équipes techniques autour des APIs, ETL et intégrations systèmes Participer à la coordination Agile/Scrum avec les équipes projet Accompagner et mentorer des profils plus juniors
Offre d'emploi
Ingénieur systèmes et réseaux H/F
HAYS France
Publiée le
45k-50k €
Strasbourg, Grand Est
Les missions sont les suivantes : Auditer les infrastructures des clients Identifier en autonomie des améliorations et projets à mener Conseiller les partenaires sur les bonnes solutions techniques à envisager Déployer des infrastructures techniques (Serveurs, solutions systèmes ou réseaux) Migrer les installations techniques Faire évoluer les solutions et logiciels des partenaires Intervenir en niveau 3 sur les incidents les plus complexes et urgents Créer une relation de confiance et professionnelle avec les partenaires Itinérance quotidienne dans le département du 67
Offre d'emploi
Ingénieur Réseau & Sécurité Junior H/F
Le Groupe SYD
Publiée le
12 mois
32k-38k €
300-400 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Réseau & Sécurité Junior H/F 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours/semaine 📝Contrat : CDI ou Portage 👉 Contexte client : Tu rejoins un acteur reconnu des services numériques, intervenant sur des environnements multi-clients et multi-sites, avec des enjeux forts de sécurisation des infrastructures, de gestion des flux et de continuité de service. Dans un contexte de renforcement des équipes infrastructure, tu interviens sur des environnements variés et exigeants, où la fiabilité, la sécurité et la qualité de service sont au cœur des priorités. Tu évolueras au sein d’équipes techniques expérimentées, avec un accompagnement pour monter en compétences sur des sujets réseaux et sécurité. Tu auras pour missions de : Gérer l’ouverture et l’administration des flux réseaux. Réaliser des opérations de routage (LAN/WAN). Administrer et exploiter des firewalls, notamment Palo Alto. Participer aux actions de sécurisation des infrastructures. Assurer le support et la résolution d’incidents réseau et sécurité. Intervenir sur des environnements multi-clients et multi-sites. 🧰 Stack technique : Réseaux : routage LAN/WAN, gestion des flux, règles réseau. Sécurité : firewalls (Palo Alto fortement apprécié), politiques de sécurité. Environnements : infrastructures multi-clients, multi-sites, contextes exigeants avec enjeux de sécurité et de disponibilité.
Offre d'emploi
Senior Data Engineer GCP
Octopus Group
Publiée le
Google Cloud Platform (GCP)
12 ans
40k-45k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native
Offre d'emploi
Data Analyst BigQuery (F/H) - Nantes
Argain Consulting Innovation
Publiée le
BigQuery
Looker Studio
SQL
6 mois
40k-45k €
400-450 €
Nantes, Pays de la Loire
Nous recherchons un Data Analyst expérimenté sur BigQuery pour intervenir sur des problématiques de fraude. Vous intégrerez une équipe data dynamique et contribuerez activement à la détection, l’analyse et la prévention des comportements frauduleux. Vos missions principales : Analyser les données afin d’identifier des schémas de fraude Concevoir et maintenir des requêtes complexes sur BigQuery Développer des indicateurs et tableaux de bord de suivi Collaborer avec les équipes métiers (risque, conformité, produit) Proposer des recommandations basées sur les analyses Participer à l’amélioration continue des outils de détection
Offre d'emploi
Data Engineer TJM MAX 580 Python + Azure + Microsoft Fabric/Cognite
Craftman data
Publiée le
Azure
Microsoft Fabric
Python
6 mois
40k-55k €
400-580 €
Paris, France
Contexte de la mission Grand groupe international du secteur industriel et énergétique, présent à l’échelle mondiale, engagé dans la transformation de ses activités via une entité digitale interne structurée en équipes pluridisciplinaires. Cette organisation conçoit, développe et déploie des solutions numériques à grande échelle afin de soutenir les opérations métiers dans un environnement international. Objectifs et livrables Dans le cadre d’un projet stratégique, nous recherchons un(e) Data Engineer disposant de solides compétences en Python, Azure, Microsoft Fabric et idéalement Cognite. Le/la consultant(e) sera responsable de la conception, du développement et de la mise en production d’une architecture de données robuste et évolutive. Missions principales : Recueillir et analyser les besoins métiers et utilisateurs Concevoir l’architecture de données adaptée aux enjeux du projet Développer les pipelines de données Industrialiser et mettre en production les flux de données Assurer la maintenance, l’évolution et l’optimisation de l’architecture existante Compétences requises : Technologies : Python (expert) Azure Cloud (confirmé) Microsoft Fabric (confirmé, forte maîtrise appréciée) Cognite (confirmé, forte maîtrise appréciée) Langues : Anglais courant (écrit et oral) Profil recherché : Solide expérience en Data Engineering et architecture cloud Capacité à comprendre les enjeux métiers et à les traduire en solutions techniques Autonomie dans la conception, la livraison et l’amélioration continue Maîtrise des environnements data modernes et des bonnes pratiques de mise en production
Mission freelance
INGENIEUR NETDEVOPS / AUTOMATISATION RESEAU - H/F - 93 + remote
Mindquest
Publiée le
Ansible
Docker
Linux
1 an
500-550 €
Saint-Denis, Île-de-France
Mon client recherche un Ingénieur NetDevOps / automatisation réseau pour une mission freelance à Saint-Denis (93). 1. Contexte Dans un environnement NetDevOps , la mission vise à renforcer l’automatisation et l’industrialisation des infrastructures réseau. L’objectif est d’améliorer l’efficacité opérationnelle via des outils d’automatisation, de monitoring et de gestion d’inventaire, dans une logique d’amélioration continue et de standardisation des pratiques. 2. Mission Le/la consultant(e) intervient sur l’automatisation et l’exploitation des infrastructures réseau : Développement de playbooks Ansible et gestion de l’orchestration via AWX Développement de scripts Python pour l’automatisation et l’intégration d’API réseau Administration et optimisation d’environnements Linux Gestion de l’inventaire et IPAM avec Netbox et intégration aux outils d’automatisation Mise en place de solutions de monitoring et de logs avec Vector et Grafana Contribution à l’industrialisation des déploiements réseau et des workflows d’exploitation Déploiement et conteneurisation des outils sur AWS / EKS avec Docker
Offre d'emploi
Lead Dev Data Streaming
OCTOGONE
Publiée le
Apache Kafka
6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant que référent technique et pilote d’une équipe d’environ 5 développeurs sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Le contexte présente des enjeux très forts de volumétrie et de passage à l’échelle : ingestion massive de données issues de centaines de milliers d’équipements, gestion de flux continus à haute fréquence, et nécessité de garantir des traitements fiables et performants en conditions de charge. Vous évoluez ainsi sur des problématiques techniques exigeantes : partitionnement Kafka, gestion du throughput, optimisation de la latence, tolérance aux pannes, reprise sur incident, cohérence des données et supervision de pipelines critiques.
Offre d'emploi
Architecte Big data sur le Havre
EterniTech
Publiée le
Big Data
Data Lake
Data science
3 mois
Le Havre, Normandie
Je cherche pour un de mes client un Architecte Big data sur le Havre Missions principales : Conception, mise en place et évolution d’architectures data modernes (Data Lakes, Data Warehouses) adaptées aux enjeux métiers et aux volumes de données. Développement et industrialisation de pipelines de données (ingestion, transformation, orchestration) dans des environnements Big Data. Intégration et valorisation des données pour alimenter des cas d’usage avancés, notamment en data science et intelligence artificielle. Développement de modèles analytiques et algorithmes de data science en réponse aux problématiques métiers. Création de tableaux de bord et reporting décisionnel via des outils BI tels que Qlik et Microsoft Power BI. Mise en œuvre et optimisation de moteurs de recherche et d’indexation avancée basés sur Elasticsearch (expertise clé). Gestion, enrichissement et évolution du catalogue de données (data catalog) afin de garantir la gouvernance et la qualité des données. Activités transverses : Analyse des systèmes existants et animation d’ateliers avec les parties prenantes pour cadrer les besoins. Définition des standards techniques, bonnes pratiques et architectures cibles. Dimensionnement, chiffrage et cadrage des solutions data. Accompagnement des équipes projet dans la mise en œuvre des solutions et suivi opérationnel. Transfert de compétences et montée en autonomie des équipes internes. Rédaction de documentation technique, cahiers des charges et rapports d’études. Réalisation d’audits techniques et amélioration continue des processus data. Veille technologique et conseil stratégique sur les outils et architectures data. Environnement technique : Big Data, Data Lake, Data Warehouse, ETL/ELT, Elasticsearch, Qlik, Power BI, Data Catalog, IA / Data Science.
Offre d'emploi
Lead Tech / CDP Full Stack — .NET Core 10 • Vue.js • Microservices • Kubernetes • Dapr
Craftman data
Publiée le
Azure DevOps
Microsoft SQL Server
12 mois
40k-45k €
400-650 €
Le Havre, Normandie
Notre client engage la modernisation complète de son SI, du legacy .NET Framework / BizTalk / SQL Server vers une architecture cloud-native micro-services (.NET Core 10, Kubernetes, Dapr, PostgreSQL, Vue.js). Nous cherchons LE Lead Tech qui sait à la fois architecturer, coder et embarquer une équipe. Hands-on à 30-50 %, vous êtes la pierre angulaire entre les architectes, les développeurs et le Directeur de Programme. La mission Vous prenez le lead technique full stack des chantiers de transformation applicative. Vous animez les équipes au quotidien en contexte agile, suivez l'avancement dans Azure DevOps, contribuez activement au code (30 % à 50 % du temps) et portez les décisions techniques back & front. Vous êtes rattaché au Directeur de Programme et travaillez en binôme étroit avec l'équipe architecture. Le contexte technique Modernisation du SI vers une architecture cloud-native micro-services : Stack actuelle .NET Framework, App Services Azure, SQL Server, BizTalk, Windows, Vue.js Stack cible .NET Core 10, Kubernetes, Docker / Podman, Linux, PostgreSQL, Dapr, Vue.js Vos terrains de jeu1. Lead .NET microservices • Définir, challenger et implémenter les architectures (clean / hexagonale) avec les architectes • Trancher les décisions techniques back & front et débloquer les sujets complexes • Contribuer au développement .NET Core 10+ et Vue.js, orienté micro-services (K8s, Dapr) • Relire le code, faire du pair programming, animer les revues techniques 2. Pilotage technique & agilité • Animer les rituels agiles (daily, sprint planning, refinement, rétros) avec pragmatisme • Suivre l'avancement dans Azure DevOps (backlog, sprints, bugs) • Lever les blocages des développeurs et sécuriser les engagements de sprint • Maintenir une visibilité claire sur l'avancement technique full stack 3. Collaboration avec l'architecture • Aligner les implémentations full stack sur la vision globale portée par les architectes • Participer aux ateliers d'architecture back / front et aux arbitrages techniques • Garantir l'application des patterns et standards architecturaux • Faire le lien entre les décisions d'architecture et leur mise en œuvre opérationnelle 4. Delivery & industrialisation CI/CD • Contribuer à la mise en place des pipelines CI/CD avec les DevOps • Superviser les déploiements et la qualité des livrables • Capitaliser sur les patterns réutilisables (microservices + UI Vue.js, Dapr)
Offre d'emploi
Data Engineer SENIOR
Tritux France
Publiée le
Cloud
Data Lake
Pandas
3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6004 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois