Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 019 résultats.
CDI

Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)

Agrega
Publiée le
Big Data

Paris, France

Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.

CDI
Freelance

Offre d'emploi
Tech Lead Performance applications

NETSEC DESIGN
Publiée le
Google Cloud Platform (GCP)
PHP
Terraform

2 ans
45k-70k €
450-670 €
Guyancourt, Île-de-France

Nous recherchons pour notre client final, un grand compte, un Tech Lead Performance des Applications afin de répondre aux besoins suivants : Missions : Réaliser un inventaire des systèmes d'information (SI) et évaluer leur performance à l'aide des outils de monitoring en place Recenser les briques techniques utilisées dans les différents SI Contribuer à la définition et à la mise en œuvre d'une stratégie de maintien en conditions de performance et de maintenabilité technique Suivre l'avancement de cette stratégie auprès des équipes SI Assurer la coordination avec les domaines métiers en France afin de garantir leur implication Faciliter la résolution des problèmes potentiellement bloquants Assurer un reporting régulier sur l’état du parc applicatif Effectuer une veille technique sur les outils de monitoring existants Livrables : Documents d’audit des SI et synthèses basées sur les objectifs de performance Capitalisation des problèmes identifiés et des solutions apportées Mise à jour et suivi des boards Jira Comptes rendus des réunions de suivi Mise à jour de la documentation CMDB Amélioration de la documentation relative à la stratégie d’optimisation du parc

Freelance

Mission freelance
Responsable des systèmes applicatifs

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Linux
Oracle

12 mois
340-420 €
Lille, Hauts-de-France

Oracle PL SQL - Junior - Impératif scripting linux - Junior - Souhaitable GCP (google cloud platform) - Junior - Serait un plus Connaissances linguistiques: Français Courant (Impératif) Description détaillée L'administrateur N3 sur le produit MBA (métier de bouche Auchan) prendra en charge : - le traitement des incidents sous EasyVista concernant son produit - le traitement des problèmes en relation avec l'éditeur Stef IT - une partie des sujets de la backlog du produit sous la responsabilité du PO Il contribuera aux projets impliquant le produit "Frais MBA"

Freelance
CDI

Offre d'emploi
Data Engineer GCP + Talend

HIGHTEAM
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Microsoft SQL Server

3 ans
40k-55k €
400-550 €
Île-de-France, France

Pour l’un de nos clients Grand Compte, nous recherchons un Data Engineer spécialisé sur GCP et Talend . Missions principales : Analyser les besoins métiers et comprendre les impacts business des données afin de proposer une conception pertinente et alignée avec les objectifs stratégiques. Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub Cloud Composer). Améliorer la performance et la scalabilité des solutions existantes. Collaborer étroitement avec les architectes, PO et data analystes pour garantir la qualité et la bonne exploitation des données. Maintenir une documentation technique claire et à jour des processus et solutions mises en place. Réaliser la recette technique et participer à l’animation de la recette fonctionnelle avec les utilisateurs et le PO. Mettre en place et gérer des systèmes de monitoring pour assurer la supervision proactive des pipelines. Participer aux phases de déploiement et assurer la maintenance corrective et évolutive. Veiller à la cohérence des livrables avec les standards et bonnes pratiques de l’équipe. Compétences techniques requises :

CDI

Offre d'emploi
Data Engineer - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Concepteur -Développeur - Medium

ARKAMA CS
Publiée le
BigQuery
Data Lake
Gitlab

57 jours
Hauts-de-France, France

Objectif global : Accompagner le domaine Supply sur l'expertise de sa data Contrainte forte du projet Activités de RUN (maintien en condition opérationnelle) de BUILD (développement) et d'EXPERTISE Les livrables sont Météo quotidienne, Remontées d'alertes Scripts, requêtes, planifications Documentations, Etats d'avancement Compétences techniques GCP : Big Query, Data Lake, SQL, GitLab, Terraform - Expert - Impératif Script Shell, IWS, AirFlow - Confirmé - Important Connaissances linguistiques Français Courant (Impératif)

Freelance
CDI

Offre d'emploi
Expert Big Data – Spark / Airflow / Superset

AVA2I
Publiée le
Apache Airflow
Apache Spark

3 ans
Île-de-France, France

Description de la mission : Nous recherchons un expert Big Data pour intervenir sur un projet stratégique autour du traitement et de la valorisation de données à grande échelle. Le consultant sera intégré à une équipe Data et interviendra sur la conception, l’optimisation et la mise en production de pipelines de données. Compétences attendues : Maîtrise avancée de Apache Spark (batch et streaming) Expertise sur Airflow (orchestration de workflows complexes, bonnes pratiques CI/CD) Connaissance approfondie de Superset (construction et industrialisation de dashboards) Bonnes pratiques en architecture Big Data et Data Lake Connaissances appréciées : Python, SQL, Cloud (AWS / GCP / Azure)

Freelance
CDI

Offre d'emploi
Data OPS - Support plateforme Big Data

Agate IT
Publiée le
Apache Spark
Big Data
Kubernetes

3 ans
40k-65k €
400-600 €
Île-de-France, France

Dans le cadre du renforcement de notre capacité de support N2, nous recherchons un/une ingénieur spécialisé dans l’exploitation et le support de plateformes Big Data. Role : assurer le maintien opérationnel des plateformes Spark et Airflow tournant sur Kubernetes : Bonne vision de l'univers prod dans la big data Bon niveau en Kubernetes attendu Anglais courant Disponible ASAP Bonnes pratiques d’exploitation de traitements data distribués. Connaissances en tuning Spark, gestion des ressources, profiling applicatif. Capacités rédactionnelles pour formaliser les procédures d’exploitation et de diagnostic. Compétences en scripting (Ansible, Python, Bash..) appréciées. Maitrise chaine CI/CD (Git, jenkins, Gitlab CI, ….)

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Freelance

Mission freelance
Tech Lead IA/Python/GCP

Codezys
Publiée le
API
FastAPI
Git

12 mois
Hauts-de-Seine, France

Métier et Fonction Études & Développement Développement Spécialités technologiques IA générative Reporting Monitoring Type de facturation Assistance Technique avec un taux journalier Compétences techniques et outils Technologies : Java, Python, genAI, Spring Boot, Google Cloud Platform Méthodes / Normes : SAFe Langues : Anglais Description de la prestation Dans le cadre d’un nouveau programme, la Direction Informatique recherche un lead développement pour concevoir et faire évoluer des agents IA innovants (notamment Retrieval-Augmented Generation - RAG) intégrés à une plateforme self-service. La solution utilise GCP et les dernières évolutions de GenAI pour permettre aux utilisateurs métiers de créer, personnaliser et utiliser des assistants et workflows IA générative, optimisant ainsi processus et systèmes d'information. Le développement en Python et Java concerne une architecture micro-services, avec missions principales de conception, intégration, maintenance, évolution et sécurisation des agents IA. La prestation inclut : Assurer la couverture fonctionnelle, la collaboration entre agents, le respect des standards, la sécurité, le monitoring, et la performance Garantir la stabilité et la scalabilité de la plateforme en collaboration avec DevOps Respecter les délais de remise en marche du SI Contribuer à la vision produit, piloter la conception, valider la qualité, et assurer la veille technologique Livrables attendus Reporting de l’état des agents et technologies Capitalisation des problématiques et solutions dans les standards internes (REX, eDEX, knowledge base) Code développé et en production conforme aux critères d’acceptation Codes des tests unitaires et d’intégration automatisés Documentation technique détaillée des programmes et algorithmes

CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France

Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL

Freelance

Mission freelance
Cloud Service Delivery Manager

Groupe Aptenia
Publiée le
Azure
Conduite du changement
Google Cloud Platform (GCP)

3 ans
Paris, France

Piloter la gestion des incidents, des problèmes et effectuer les communications aux équipes IT. Suivre le plan d'amélioration suite à incident (RCA) et prendre les mesures correctives associées. Mettre en place des processus de résolution efficaces. Analyser les causes profondes des incidents et proposer des solutions durables. Piloter les relations avec les prestataires d'infogérances On-Premise et Public Cloud (Azure/GCP). S'assurer du respect des SLA et des engagements contractuels. Suivre la performance des prestataires et identifier les axes d'amélioration. Piloter les demandes de changement de production et coordination avec les équipes et partenaires. S'assurer de la bonne application des processus de gestion des changements. Évaluer les risques et les impacts des changements. Coordonner les équipes techniques impliquées dans les changements. Valider la qualité des livrables et leur conformité aux exigences. Organiser les revues de mise en production et s'assurer de la préparation des équipes. Effectuer le reporting hebdomadaire et mensuel de suivi de l'activité de production. Proposer des recommandations d'amélioration continue.

Freelance
CDI

Offre d'emploi
DATA ENGINEER SNOWFLAKE / DBT / Service Now ITSM

UCASE CONSULTING
Publiée le
DBT
ServiceNow
Snowflake

3 ans
27k-55k €
400-550 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un consultant Data Analytics Engineer – Intégration ServiceNow ITSM → Snowflake Contexte de la mission Dans le cadre du renforcement de ses capacités analytiques autour des processus ITSM, Accor recherche un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,

Freelance
CDI

Offre d'emploi
4 Missions - Cloud & DevOps – Freelance / Portage - Lille - Longue durée

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Cloud
Google Cloud Platform (GCP)

3 ans
40k-50k €
100-460 €
Lille, Hauts-de-France

Pour l’un de mes clients, je recherche pour 4 missions ouvertes à Lille : CloudOps Engineer : Kubernetes, Terraform, AWS/GCP, scripting (Bash/Python/Go) DevOps AWS : Data Platform multi-cloud, AWS EKS, Terraform, Python (API REST), CI/CD Développeur Cloud Sénior : GCP, Terraform, Python, GitOps, développement plateforme interne DevOps Réseau / Public Network : Terraform, Python, GCP/AWS, sécurité (Firewall, DNS, WAF, LB) Conditions : Freelance ou portage salarial ( accompagnement possible sur votre passage en portage ) Mission longue (3 ans) Disponibilité max 1 mois Présence 3 jours/semaine sur Lille (non négociable) 3‑5 ans d’expérience sur un rôle similaire ou plus Si vous êtes intéressé et que votre profil correspond à la demande, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.

Freelance

Mission freelance
DATA ENGINEER GCP (H/F)

ALLEGIS GROUP
Publiée le
Big Data
Google Cloud Platform (GCP)
Terraform

1 an
France

TEKsystems recherche pour le compte de son client : Un(e) DATA ingenieur(e) 📌 Contexte : Intégration au sein de l’équipe Finance. Plus précisément, intégration dans une sous-équipe composée de 2 data engineers, au sein d’un ensemble de 8 personnes. 🛠️ Activités : Mise à disposition de nouveaux projets et produits data sur GCP (Google Cloud Platform). Répartition des missions : 70 % dédiés à l’innovation et au développement de nouveaux projets sur GCP. 30 % consacrés à la continuité et au maintien des solutions existantes. 🤝 Interlocuteurs privilégiés : Product Owner (PO), Business Analyst et Chef de projet IT.

Freelance

Mission freelance
Data Engineer Kafka, KStreams, K8S, Spark

KEONI CONSULTING
Publiée le
DevOps
Java

18 mois
100-400 €
Paris, France

MISSION Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark de la squad Data Value (connaissance client, collecte des événements digitaux...). Développer en Java des traitements de transformation et de production de données ; Designer des chaines optimisées CI/CD en collaboration avec les équipes. Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code Expertise souhaitée Expertise technique confirmé : - Kafka - Kstreams - K8s - streaming de données

2019 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous