Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 617 résultats.
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance

Mission freelance
Administrateur Cognos (H/F) - 94

Mindquest
Publiée le
Ansible
Cognos
Internet Information Services (IIS)

8 mois
Val-de-Marne, France
Contexte Je recherche pour mon client un administrateur Cognos afin de gérer et administrer les systèmes de l’application Cognos du groupe, en assurant la cohérence, la qualité et la sécurité. Mission Participer à la définition et à la mise en œuvre des environnement retenus par les projets : - Prend en charge le maintien en conditions opérationnelles des offres relatives aux technologies Cognos. - Traite les incidents et problèmes pouvant survenir sur les plates-formes. - Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance. - Contribue à la mise en œuvre des solutions de continuité et participe aux tests de back up. - Détermine l’architecture finale de la brique technique COGNOS - Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. - Travaille en relation étroite et permanente avec les équipes de production et Infrastructures et Sécurité. - Contribue aux projets d'évolution des environnements lié aux offres Cognos et adapte le processus de mise à disposition automatique. - Administrer les systèmes de gestion de données/référentiel de l'entreprise. - Exploite les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance - Effectue un support technique. - Effectue l'adaptation, l'administration et la maintenance des logiciels lié aux offres Cognos. - Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation. - Assure l'intégrité des offres existants en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incident ?) et logique (confidentialité, accès). - Met en œuvre les outils de surveillance. - Règle les paramètres des applications Cognos pour une utilisation optimale. - Suit et contrôle les évolutions de versions retenues par l'entreprise. - Définit les normes et standards d'utilisation et d'exploitation des offres Cognos. Astreinte du domaine - Assure une astreinte sur le périmètre ETL / BI (windows/linux)
Offre premium
CDI
CDD
Freelance

Offre d'emploi
Data Analyst Monétique

Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)

6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
CDI

Offre d'emploi
Développeur ETL (H/F) - MARTINIQUE

INFOBAM
Publiée le
BI
Développement
ETL (Extract-transform-load)

Le Lamentin, Martinique
Au sein du Pôle Développement, vous rejoignez une équipe composée d’une dizaine de collaborateurs et vous serez en charge des flux de données (BI, ERP,...) pour divers secteurs d’activités du groupe (Grande distribution alimentaire et spécialisée, Distribution Automobile et Activités industrielles). Vos responsabilités : Conception et Développement des Flux de Données Création des Processus ETL : Concevoir et développer des flux de travail ETL pour extraire, transformer et charger des données provenant de diverses sources. Optimisation des Performances : Améliorer les processus existants pour garantir leur efficacité, fiabilité et évolutivité. Assurance Qualité et Documentation Validation de la Qualité des Données : Assurer l'intégrité et la précision des données tout au long du processus ETL, incluant le profilage et le nettoyage des données. Documentation Technique Rédiger et maintenir la documentation relative aux processus ETL, y compris les spécifications fonctionnelles et techniques. Collaboration et Support Technique Travail Inter-équipes : Collaborer avec les équipes Data, de développement et d'autres parties prenantes pour répondre aux besoins en matière de données. Soutien aux Utilisateurs : Fournir un support technique aux utilisateurs finaux concernant les outils ETL et résoudre les problèmes liés aux flux de données. Environnement technique du poste : SSIS, Talend SQL API REST Git
Freelance

Mission freelance
Consultant Windev

Mindquest
Publiée le
API
ETL (Extract-transform-load)
WinDev

3 mois
300-400 €
Tournon-sur-Rhône, Auvergne-Rhône-Alpes
Reprendre en main le programme ETL existant développé sous WinDev Produire la documentation manquante à partir de l’existant : cartographie des processus, flux et interfaces Assurer la maintenance corrective et évolutive de l’application ETL Poursuivre les développements en cours liés à la création de nouvelles interfaces avec un outil SaaS de gestion des intérimaires via API Gérer les flux d’interfaces entre les applicatifs Paie, GTA et l’annuaire Active Directory Traiter des imports / exports de fichiers plats, transformation de données et génération de fichiers d’échange Intervenir sur des lectures / écritures de données via API dans Active Directory sur les comptes utilisateurs Sécuriser la continuité de service sur des traitements RH sensibles liés aux matricules, emails, dates de fin de contrat et création de comptes utilisateurs
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Senior

LEVUP
Publiée le
AWS Cloud
Snowflake

12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Freelance

Mission freelance
Expert Infrastructure BI & MSBI (Power BI / SSIS / SSRS)

Deodis
Publiée le
ETL (Extract-transform-load)

1 an
500 €
Île-de-France, France
Le poste consiste à intervenir en tant qu’ expert des plateformes MSBI afin d’assurer l’administration, l’exploitation et l’optimisation des environnements de Business Intelligence de l’entreprise. Le consultant est responsable du maintien en conditions opérationnelles des solutions MSBI (Power BI, SSIS, SSRS) et des outils ETL associés , en garantissant leur performance, leur sécurité et leur fiabilité . Il participe à la définition des architectures techniques, au déploiement des environnements BI, à la résolution d’incidents complexes et à l’amélioration continue des infrastructures . Le rôle inclut également la gestion des évolutions technologiques, la mise en place d’outils de supervision, la documentation des configurations, le support technique aux équipes d’exploitation et la collaboration étroite avec les équipes infrastructure, sécurité et production , tout en contribuant aux projets d’évolution des plateformes de données de l’entreprise
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
CDI
CDD

Offre d'emploi
Consultant Data Governance & Data Products (Collibra / Snowflake)

OCTOGONE
Publiée le
BI
Collibra
Snowflake

9 mois
33k-45k €
Sochaux, Bourgogne-Franche-Comté
Contexte Dans le cadre du déploiement et de l’industrialisation de la gouvernance des données, le client utilise Collibra comme solution centrale pour le glossaire, le catalogue et la gestion des data products. Les métadonnées et datasets proviennent principalement de Snowflake, avec une extension envisagée vers Power BI. La mission consiste à assister techniquement le Data Governance Officer, en collaboration étroite avec le Data Platform Leader, responsable de la plateforme Snowflake et du data catalog. Profil recherché Compétences principales : Expertise Collibra (glossaire, catalogue, workflows, operating model). Gouvernance des données et Data Products. Capacité à travailler en interface gouvernance / plateforme. Connaissance du monde bancaire appréciée. Anglais. Compétences additionnelles : Snowflake Cortex AI et objets sémantiques. Gouvernance Power BI. Sensibilité data quality, lineage et IA. Objectifs Mettre en place et opérer un glossaire data et des data products dans Collibra. Définir et industrialiser les processus liés à la création et à l’évolution des objets data. Garantir la qualité des informations et métadonnées collectées dans Collibra. Assurer la cohérence entre la gouvernance des données et la plateforme Snowflake. Apporter une expertise technique au Data Governance Officer et au Data Platform Leader. Périmètre & Responsabilités Assistance technique au Data Governance Officer. Traduire les orientations de gouvernance en configurations concrètes dans Collibra. Concevoir modèles d’assets, relations, statuts, certifications et workflows. Proposer des évolutions en fonction des usages et contraintes. Coordination avec le Data Platform Leader. Modélisation des objets Snowflake dans Collibra. Automatisation de l’ingestion des métadonnées. Alignement des standards plateforme et règles de gouvernance. Mise en place du glossaire data. Structurer glossaire métier et technique dans Collibra. Définir standards de définition, nommage et classifications. Conception et gouvernance des Data Products. Définir cadre méthodologique (règles, responsabilités, qualité, cycle de vie). Créer et maintenir les data products dans Collibra, liés aux objets Snowflake et cas d’usage. Processus opérationnels Documenter les processus end-to-end : - Garantir la scalabilité et la maintenabilité des dispositifs mis en place. - Créer une formation dédiée pour accompagner les équipes : supports pédagogiques et sessions pratiques pour assurer la bonne application des processus. Qualité des métadonnées : - Définir critères qualité et mettre en place contrôles dans Collibra. - Suivre indicateurs et piloter amélioration continue. Intégration Snowflake & BI : - Gérer ingestion et gouvernance des métadonnées Snowflake. - Préparer intégration des métadonnées Power BI. - Anticiper impacts Snowflake Cortex AI sur gouvernance et traçabilité. Interfaces clés Data Governance Officer : vision, cadre et arbitrages de gouvernance. Data Platform Leader : architecture, standards et exploitation de Snowflake et du data catalog. Équipes Data Platform, BI et Métiers. Livrables attendus Glossaire métier et technique opérationnel dans Collibra. Catalogue de data products documentés et exploitables. Processus et workflows Collibra alignés avec Snowflake. Tableaux de bord qualité et adoption. Dispositif d’amélioration continue. Formation des utilisateurs.
CDI

Offre d'emploi
Développeur Talend H/F

HAYS France
Publiée le
Développement
ETL (Extract-transform-load)
Talend

40k-48k €
Monaco
Nous recherchons pour notre client son futur Développeur Talend . Vos missions sont les suivantes : Structurer les données selon plusieurs niveaux d’agrégation et élaborer des processus avancés de transformation et d’harmonisation pour garantir leur exploitation opérationnelle. Suivre de près les performances des jobs d’extraction et de modélisation de données, et mettre en place des optimisations continues pour en améliorer l’efficacité. Assurer la robustesse et la tolérance aux pannes des workflows d’intégration de données, tout en garantissant leur capacité à monter en charge. Contribuer aux projets de redesign et modernisation de l’applicatif et notamment l’amélioration des moteurs de recherches et l’implémentation de use cases d’IA. Environnement technique général : ETL Talend | Linux Ubuntu et CentOS, Shell Unix | AWS RDS (PostgreSQL et MySQL/MariaDB) - AWS OpenSearch (ElasticSearch) - AWS Elasticache Redis | MariaDB sur On-Premise Linux (standalone et cluster Galera) | Supervision : Nagios, Grafana, collectd, NewRelic | DevOps : Terraform, Ansible
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance
CDD

Offre d'emploi
Consultant Data Senior (Snowflake / MicroStrategy)

Digimatch
Publiée le
Confluence
Data quality
ETL (Extract-transform-load)

6 mois
60k €
550 €
Île-de-France, France
Dans le cadre d’un projet stratégique de décommissionnement de systèmes legacy, nous recherchons un consultant Data senior, à la fois fonctionnel et technique, pour accompagner une migration de données et la mise en place de reporting. Contexte de la mission Projet de décommissioning d’une base de données / legacy system risk Migration des données vers un environnement Snowflake Refonte / maintien du reporting sous MicroStrategy Environnement décisionnel à forts enjeux métiers Missions principales Analyse de l’existant (legacy systems, flux, risques) Cadrage fonctionnel de la migration de données Pilotage et/ou réalisation des migrations (ETL, contrôles, qualité des données) Contribution à la mise en place et à l’optimisation du reporting MicroStrategy Interaction avec les équipes métiers et IT Accompagnement au décommissionnement des systèmes legacy
CDI

Offre d'emploi
Data engineer BI (H/F)

Amiltone
Publiée le
BI

45k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet BI. Vos missions : - Etre force de proposition sur la conception (normes, méthodes, contexte, environnements...) et la réalisation de traitements ETL industrialisés. - Challenger les besoins et de proposer des solutions viables et scalables d'un point de vue technique tout en respectant les budgets impartis. - Concevoir des rapports sur Power BI. - Tirer parti des services managés et de données de l'écosystème Microsoft Azure : Azure Data Factory, Azure Synapse Analytics, Power BI, etc. - Organiser des différentes couches d'un DataLake par type et qualité de données. - Assurer la sécurisation de l'écosystème de données Vos compétences : - Connaissances sur les ETLs (Azure Synapse/Azure Data Factory, Talend, DataStage,...) - Connaissances de Power BI et maitrise de la génération des rapports. - Connaissance d'Azure DataLake (Gen1 / Gen2). - Maitrise de SQL/Transac-SQL et des bases de données MySQL et MS SQL Server. Les plus : - Connaissances avancées d'Azure Synapse et de l'écosystème de données/BI de Microsoft Azure. - Connaissance des métiers de la Paie ou des Ressources Humaines.
CDI
Freelance

Offre d'emploi
Consultant Senior Data / BI Engineer (H/F)

Aleysia
Publiée le
Azure DevOps
BI
Microsoft SQL Server

12 mois
40k-45k €
400-550 €
Arcueil, Île-de-France
Si la Data BI est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Consultant Senior Data / BI Engineer ! 🚀 Ton challenge si tu l’acceptes : Concevoir et développer des flux d’intégration de données fiables et performants avec SSIS, T-SQL et Python . Collaborer à la conception de l’architecture data et des Datamarts sur SQL Server et Azure. Gérer la maintenance corrective et évolutive des modèles tabulaires SSAS et des rapports Power BI . Participer activement à l’amélioration continue des processus et des performances des flux de données. Implémenter des tests et automatisations pour garantir la qualité et la fiabilité des données. Suivre les bonnes pratiques BI, participer aux revues de code et optimiser les modèles de données. Travailler en méthodologie Agile/Scrum , collaborer avec les Product Owners, chefs de projets et équipes techniques.
CDI

Offre d'emploi
BUSINESS ANALYST DATA / EXPERT DATA (H/F)

GROUPE ALLIANCE
Publiée le
Informatica
PL/SQL
SQL

55k-65k €
Paris
ACCROCHE SI TRANSFORMER UN BESOIN MÉTIER EN SPÉCIFICATION CLAIRE EST TON SUPER POUVOIR, TU ES PEUT-ÊTRE CELUI QU’ON ATTENDAIT ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la compréhension métier et à la traduction fonctionnelle Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras à l'accompagnement des métiers pour la mise en place de nouveaux indicateurs. : Les besoins utilisateurs, tu recueilleras Les processus métiers, tu analyseras Les spécifications fonctionnelles, tu rédigeras Le lien entre les équipes métier et IT, tu assureras La validation des livrables, tu piloteras Les plans de test fonctionnels, tu construiras Ton équipe, tu accompagneras Aux ateliers, comités et instances projet, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10 ans minimum Expert(e) en analyse fonctionnelle, expression de besoin, modélisation de processus et conduite du changement Habile avec les outils Informatica, Sql, Pl-Sql, Jira AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
6617 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous