Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 960 résultats.
Freelance

Mission freelance
Data Cloud Architect

Bluescale
Publiée le
Architecture
Azure
Electronic Design Automation (EDA)

6 mois
La Défense, Île-de-France

Data Cloud Architect – Senior (6 à 10 ans d’expérience) Contexte de la mission Dans le cadre du renforcement d’une équipe en charge de la collecte et du traitement des données, un profil expérimenté est recherché pour intervenir sur des sujets d’architecture Cloud, d’intégration de services et de modernisation des solutions data. Ce rôle exige une forte expertise technique, de l’autonomie et une capacité à collaborer avec des interlocuteurs variés (équipes IT, partenaires techniques, métiers, prestataires).

Freelance

Mission freelance
Expert Data Azure – Azure Data Factory / Finance

HIGHTEAM
Publiée le
Azure
Azure Data Factory
Databricks

3 ans
550-600 €
Île-de-France, France

Pour l’un de nos clients grand compte dans le secteur de la Finance , nous recherchons un Expert Data Azure , spécialisé dans Azure Data Factory , afin de renforcer l’équipe Data & Analytics . Conception, développement et optimisation des flux de données sur la plateforme Azure : Injection , stockage , traitement , analyse Outils : ADF , Azure Synapse , Data Lake , SQL Data base , Analysais Services Challenger l'existant pour faire évoluer le Data Hub interne , dans une logique de migration progressive vers la solution cible Garantir la qualité des données , le time to market et la facilité d’intégration (SQL, API, Cube OLAP…) Être force de proposition sur les outils, modèles de données et processus à mettre en place Participer à la mise en œuvre de tests automatisés et proposer des approches d’ analyse avancée des données via l’ IA Collaborer avec les équipes IT, Data, Business Analystes , dans un environnement Agile à l’échelle

Freelance

Mission freelance
Data Architecture / Architecture AI

VISIAN
Publiée le
Architecture
Azure
Docker

1 an
600-750 €
Île-de-France, France

Dans le cadre de la stratégie de modernisation du client, un département dédié à l’innovation technologique et à l’intelligence artificielle recherche un Architecte IA pour intervenir sur la finalisation de l’architecture cible de ses solutions d’intelligence artificielle. Objectifs de la mission : Concevoir une architecture IA robuste, scalable et sécurisée. Intégrer les composants IA dans un écosystème existant basé sur le cloud. Produire les schémas techniques, la documentation et la roadmap IA. Participer à la gouvernance des données (qualité, éthique, conformité). Collaborer étroitement avec les équipes projets et les experts IA internes. Livrables attendus : Schéma d’architecture IA détaillé Documentation technique des modèles Évaluation des performances (F1-score, précision, biais) Plan de gouvernance des données IA Feuille de route stratégique IA

Freelance

Mission freelance
Mission Winshuttle en Full remote

CRYSTAL PLACEMENT
Publiée le
Data management
Microsoft Excel
SAP

3 mois
Paris, France

Bonjour, Nous sommes à la recherche d'un profil Winshuttle pour une mission de rétro-engineering et documentation sur un projet dans le secteur aéronautique. Votre mission : Analyser et comprendre la logique d’environ 20 scripts Winshuttle Réaliser la documentation complète des scripts existants Aider à mieux structurer et formaliser les usages de l’outil Travailler en autonomie , avec une méthodologie rigoureuse P.S : Aucune modification de script n’est prévue. La mission peut se faire en Full remote Démarrage flexible

Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

VISIAN
Publiée le
draw.io
ITSM
ServiceNow

2 ans
30k-63k €
400-550 €
Issy-les-Moulineaux, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake. Nous sommes à la recherche d'un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente (à confirmer) Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,

Freelance
CDI

Offre d'emploi
Architecte/ Data Engineer Dataiku

VISIAN
Publiée le
Apache Kafka
Dataiku
Dynatrace

2 ans
40k-84k €
460-720 €
Guyancourt, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Senior expert sur de l'architecture des Data Platforms sur du Dataiku/Kafka vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la Data Platform - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Data Platform - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Base de données de type Sql/NoSql - Kafka - Dataiku - Scripting Python/SQL/Java - Suite Elastic - Zabbix - Dynatrace Attendus Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Automatiser les installations des socles techniques - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles pour prise en compte des flux de données

Freelance

Mission freelance
Responsable projet réglementaire DATA

STHREE SAS pour HUXLEY
Publiée le

8 mois
400-600 €
Île-de-France, France

Ce projet couvre l'ensemble du Groupe et sa déclinaison peut générer des impacts au sein des processus opérationnels des établissements et des échanges de données avec leur SIR. Profil recherché - Compétences fonctionnelles bancaires - Expertise sur les opérations financières attestant d'une compréhension de la modélisation des opérations financières de type titres, repo, dérivés…) - Connaissances reporting réglementaires des établissements de crédit - Gestion de projet Il est à réaliser au sein de l'équipe Projet Usages Finance et Risque de la Direction Architecture et Reporting du Pôle Finance et Stratégie, en lien avec les équipes de la Résilience Financière

Freelance

Mission freelance
Data Engineer AWS Sénior

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

CDI

Offre d'emploi
Data Engineer Talend - DAX

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Freelance

Mission freelance
Data Engineer

Sapiens Group
Publiée le
Apache Airflow
Gitlab
Shell

3 mois
270-500 €
Lille, Hauts-de-France

Dans le cadre du renforcement de l’équipe Socle Performance , rattachée à la direction DELIVERY BACK (département Finance, Services d’Appui, RH et RSE), nous recherchons un profil DevOps orienté data capable de faire le lien entre les enjeux métiers et les solutions techniques. Vos responsabilités : Analyser et comprendre les besoins des utilisateurs métiers, Proposer des conceptions techniques alignées avec les orientations cibles d’Auchan (GCP : BigQuery, Airflow, Cloud Run, etc., RDO, Git...), Prendre en charge l’ensemble des phases projet : de la conception au déploiement, en passant par le développement, les tests et la mise en production, Contribuer activement aux activités de RUN , de BUILD et aux démarches d’ amélioration continue .

Freelance

Mission freelance
Expert Snowflake / DBT – Data Platform Architect

Signe +
Publiée le
Snowflake

8 mois
400-600 €
Paris, France

Contexte de la mission : Dans le cadre de la structuration de sa Data Factory , notre client du secteur Luxe recherche un consultant haut niveau capable d’intervenir sur l’architecture, le déploiement et l’industrialisation de plateformes de données basées sur Snowflake et DBT . Le consultant devra également accompagner et former les équipes techniques, tout en assurant le pilotage de la gouvernance, du FinOps et des bonnes pratiques DataOps. Missions principales : Conception et déploiement de plateformes de données (Snowflake, BigQuery, Databricks) Supervision et gouvernance des plateformes Snowflake et DBT Accompagnement des équipes de développement (coaching, support technique) Mise en place de bonnes pratiques de développement, sécurité et DataOps FinOps : suivi et optimisation des coûts par projet fonctionnel Automatisation de l'infrastructure et des processus (Git / GitLab CI/CD) Développement de pipelines et méthodes d’ingestion (via ETL ou scripting Python) Modélisation de l'entrepôt de données (modèles Kimball , Data Vault , etc.) Déploiement de frameworks de type QA / ELT / CI/CD Rédaction de documentation technique et fonctionnelle Formation des équipes internes sur les outils, les frameworks et les bonnes pratiques

Freelance

Mission freelance
Chef De Projet Data / IA NANTES

AKERWISE
Publiée le

12 mois
350-415 €
France

Descriptif du poste La mission du Chef de Projets Data/IA s'articule autour d'un besoin de développer des cas d'usages concrets embarquant des technologies d'Intelligence Artificielle avancées et se basant sur le patrimoine de données actuel pour en augmenter sa valeur et son usage métier. L'apport de ces cas d'usage se traduiront par une meilleure productivité des agents gérant des services spécifiques en Gare. Responsabilités principales • Effectuer de la veille sur des cas d'usage similaires et des outils adaptés nécessaires au traitement des cas d'usage de la mission • Cadrer fonctionnellement les cas d'usage avec les métiers concernés • Choisir le socle technologique adapté aux différents cas d'usage • Imaginer la comitologie adaptée • Construire un rétroplanning cohérent et optimal pour chacun des cas d'usage • Rédiger les user stories, animer les ateliers métiers et prioriser les développements • Piloter les tests, calibrages • Définir les KPIs les plus pertinents pour faire la preuve de la performance et de l'efficacité des Cas d'usage développés dans le cadre de la mission • Organiser la restitution des résultats et la documentation • Préconiser les modalités précises de généralisation des cas d'usage et de mise en production Interactions et communication Le Chef de Projet sera très régulièrement en contact avec les métiers et entités pilotant les services en gares pour les clients et les transporteurs (Objets trouvés, assistance PSH / PMR, Consignes- Conciergerie, RCAD, Direction transporteurs, équipe CRM, Sat client…). Il interagit également avec les PPOs techniques, les équipes infra et le reste de l'équipe Data Analytics. Il aura notamment des échanges très réguliers avec le PO Data de l'équipe Data Analytics qui a la connaissance du patrimoine actuel de données et des différents produits data et travaux existants. Au quotidien, il travaille en binôme avec le développeur Data Scientist IA qui l'accompagnera sur le dispositif et le développement des Use Cases. Il devra présenter les résultats de ses travaux lors de Comités de direction.

Freelance
CDI

Offre d'emploi
Chef de projet Infrastructure / Gestion du processus data

VISIAN
Publiée le
ISO 9001
ITIL

1 an
40k-45k €
310-420 €
Île-de-France, France

Descriptif du poste : Chef de projet Infrastructure / Gestion du processus data Au sein d'une entreprise, un processus data et applications management a été mis en place afin de cadrer la gestion des données. L'équipe de GPO (Global Process Owner) GPM (Global Process Manager) doit être renforcée afin de permettre le déploiement du processus dans l'entreprise. Missions principales : Revu et mises à jour du processus et des procédures Suivi des indicateurs du processus Préparation des comités d'axes (AQR Axis Quaterly Review, AMR Axis Monthly Review, AYR Axis Yearly Review) Proposer des actions d'amélioration continu du processus et des indicateurs Mise en conformité du processus vis à vis des règles groupe Participation aux audits ISO, internes et BCE

Freelance

Mission freelance
Data Analyst / Lead Dataiku

INFOTEL CONSEIL
Publiée le
Dataiku
Microsoft Power BI
Python

1 an
100-600 €
Paris, France

Pour le compte d'un de nos clients bancaire / financier, nous sommes à la recherche d'un consultant Data Analyst ayant une expertise sur l'outil Dataiku. Le demandeur est une équipe transverse hébergeant des applications en Java du groupe. L'objectif est de mettre en place un datahub venant ingérer des données issues de ces applications, pour par la suite mettre en place une stratégie de reporting pertinente à destination du top management. L'attente principale sur ce poste est d'apporter une expertise sur l'outil Dataiku afin de mettre en place les flux avec cette outil, et de gérer l'administration et l'accès aux données. Les différents utilisateurs des applications peuvent être à l'étranger (Europe, Inde, places financières internationales). Une maitrise de l'anglais est obligatoire.

Freelance
CDI

Offre d'emploi
Data Architecte

VISIAN
Publiée le
Go (langage)
Kubernetes

1 an
40k-45k €
210-710 €
Montreuil, Île-de-France

Missions Participation à la maintenance opérationnelle de l'outillage Amélioration de l'industrialisation des outils Participation au projet de migration vers Openshift et à sa sécurisation Test et proposition des solutions innovantes pour améliorer notre offre de service Accompagnement des clients dans l'implémentation et le design de l'intégration et la sécurité Participation à l'amélioration du monitoring avec Dynatrace Participation à l'intégration de solutions Data Responsabilités Principales Fournir et maintenir l'outillage facilitant l'intégration de solutions Data (datahub, open metadata, Spark, Trino, airflow, Vault, Kubernetes, Monitoring, Gitlab CI, ArgoCD, sécurité) Fournir des standards et modèles d'intégrations de solutions Data Accompagner et former les équipes de solutions Data Supporter/maintenir la plateforme en PROD

Freelance

Mission freelance
Un Data Engineer sur Paris + TT

Smarteo
Publiée le
Streamlit

2 ans
400-550 €
Paris, France

Smarteo recherche pour l'un de ses clients, Un Data Engineer sur Paris + TT Projet : Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Assurer l’assistance technique auprès de nos client Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Principaux livrables : Participer au cadrage technique Refonte et re-design de l'application existante Initialisation et préparation de l'environnement de DEV et de la chaine DEVOPS Développement Front avec UX/Design, gestion des exceptions. Développement des pipelines de données (Extraction via API externe et d'autres sources, Intégration dans une Base de données SQL et construction des données nécessaires pour exposition dans le portail) Intégration et déploiement continue via une chaine CI/CD sur l'ensemble des environnements Documentation technique et utilisateurs. Recette technique et tests de bout en bout. Traitement des incidents & assistance utilisateurs Respect des normes et règles de développement Python. Travailler étroitement avec les équipiers pour s’assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Compétences requises : Maitrise de Python et de Framework Streamlit Expertise en déploiement et configuration de Streamlit en environnement python Maîtrise de HAProxy et des concepts de reverse proxy et connexion SSL/TLS Maitrise Bash et chaine DEVOPS (GitLab, Jenkins, Ansible, Nexus, Sonar, …) Maitrise des base de données relationnelle SQL Experience sur la consommation et l'exposition API REST Kubernetes, pratiques MLOPS Une bonne autonomie et capacité de prendre le lead sur la définition des solutions applicatifs et le développement des évolutions bonne communication et accompagnement utilisateurs Sens du travail en équipe Best to have : - Connaissance LLM et IA GEN Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

960 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous