Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 965 résultats.
Freelance
CDI

Offre d'emploi
DATA ENGINEER ETL / SEMARCHY F/H | STRASBOURG (67)

HIGHTEAM GRAND SUD
Publiée le
Sap BO
SQL

3 ans
10k-42k €
100-400 €
Strasbourg, Grand Est

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur des projets d'envergure. A ce titre, vous serez en charge de : Gérer les demandes et participer au pilotage de projet Echanger avec la MOA et les utilisateurs Réaliser l'analyse et rédiger les spécifications techniques. Modéliser les données et optimiser les architectures décisionnelles. Concevoir et développer des flux ETL. Rédiger la documentation technique et fonctionnelle. Participer à la recette et au suivi de production. Environnement Technique : Vertica, Semarchy, SAP BO, SQL Le poste est basé à Strasbourg (67) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Freelance

Mission freelance
Business Analyst Data Senior (Asset Management / Cloud Azure)

STHREE SAS pour HUXLEY
Publiée le

9 mois
600 €
Île-de-France, France

Vous rejoignez une équipe de 10 personnes pour accompagner la transformation Data de l'entreprise. Votre rôle : Définir le modèle cible de données , conciliant les besoins métiers et les standards de la nouvelle plateforme. Préserver la cohérence avec le modèle historique tout en intégrant les apports du modèle de l'éditeur. Proposer des solutions équilibrées entre contraintes court terme (intégration, délais, coûts) et enjeux long terme (évolutivité, maintenance, cohérence). Travailler en méthodologie Agile , en lien étroit avec les développeurs, analystes et autres équipes projet.

Freelance

Mission freelance
Ingénieur Devops / DataOps

SILKHOM
Publiée le
Data analysis
DevOps
Python

3 mois
300-700 €
Paris, France

Notre client, une société innovante est spécialisée dans le traitement et l’analyse de données environnementales complexes, avec une expertise particulière dans la surveillance de la qualité de l’air. Elle conçoit et déploie des systèmes intelligents qui permettent de détecter, classifier et anticiper des événements liés à la pollution atmosphérique, notamment dans des environnements sensibles et exigeants comme l’aéronautique. L’entreprise associe plusieurs briques technologiques : · Capteurs physiques de haute précision, capables de collecter un large volume de données en temps réel, · Solutions logicielles de traitement et de modélisation, · Algorithmes d’intelligence artificielle pour identifier des signaux faibles et prédire des phénomènes complexes, · Outils de visualisation avancée pour rendre les résultats accessibles et exploitables par les décideurs. Basée au cœur d’un écosystème de recherche et d’innovation (proximité avec de grandes écoles d’ingénieurs et centres de R&D), cette société combine un esprit startup agile avec des projets de forte valeur sociétale et scientifique. Elle s’adresse aussi bien aux acteurs industriels qu’aux organisations publiques ou parapubliques soucieuses de mieux comprendre et maîtriser leur empreinte environnementale.

Freelance

Mission freelance
97071/Technicien datacenter Lyon

WorldWide People
Publiée le
Data Center

4 mois
250-260 €
Lyon, Auvergne-Rhône-Alpes

Technicien datacenter Lyon: IT Services, Data Center Installation of cages and racks, Data Center construction and deconstruction Activités - Déconnexion matériel informatique en datacenter, - Dérackage, - Déplacement, Conditionnement, Préparation à enlèvement des matériels sur quai transporteur Compétences - Certification H0B0 exigée - CACES apprécié Localisation : La Mulatière Plage horaire standard Télétravail non autorisé Qualifictions : IT Services,DC Installation of cages and racks,DC construction and deconstructionTechnicien datacenter Lyon

Freelance
CDI
CDD

Offre d'emploi
Ingénieur(e) DATA GCP

IT CONSULTANTS
Publiée le
Google Cloud Platform (GCP)

6 mois
35k-44k €
400-550 €
Ivry-sur-Seine, Île-de-France

Nous recherchons un(e) ingénieur(e) DevOps Junior ayant des compétences solides sur - KAFKA - Google Cloud Platform - JQUERY IMPORTANT : cette opportunité est à pourvoir uniquement pour une mission de pré-embauche ou pour une embauche directe en CDI chez notre client. MISSION PRINCIPALE : Vous accompagnerez le client dans la mise en place de projets en Agile (SAFe) et le déploiement d'applications en collaboration avec les équipes produit et parties prenantes métier. L'équipe est aujourd'hui constituée d'une 10aine de profils pluridisciplinaires

Freelance
CDI
CDD

Offre d'emploi
Ingénieur(e) DATA GCP

IT CONSULTANTS
Publiée le
Google Cloud Platform (GCP)

6 mois
35k-44k €
400-550 €
Ivry-sur-Seine, Île-de-France

Nous recherchons un(e) ingénieur(e) DevOps Junior ayant des compétences solides sur - KAFKA - Google Cloud Platform - JQUERY IMPORTANT : cette opportunité est à pourvoir uniquement pour une mission de pré-embauche ou pour une embauche directe en CDI chez notre client. MISSION PRINCIPALE : Vous accompagnerez le client dans la mise en place de projets en Agile (SAFe) et le déploiement d'applications en collaboration avec les équipes produit et parties prenantes métier. L'équipe est aujourd'hui constituée d'une 10aine de profils pluridisciplinaires

Freelance

Mission freelance
Data Scientist Séries temporelles H/F

Karma Partners
Publiée le
ARIMA

6 mois
400-520 €
Île-de-France, France

Comprendre finement les mécanismes du Revenue Management dans un contexte aérien : dynamiques de réservation, effets prix, anticipation, segmentation, etc. Concevoir, tester et mettre en œuvre un nouveau modèle de prévision de la demande, basé sur des approches de séries temporelles modernes (ML, statistiques bayésiennes, etc.) dans un contexte multi-segments, multi-horizons et incertain. Garantir l’interprétabilité, la robustesse statistique et la fiabilité des prévisions, afin de permettre aux équipes métiers RM d’exploiter efficacement les résultats dans un système de décision. Intégrer une réflexion rigoureuse sur les biais, les sources d’endogénéité, et les incertitudes des modèles, et proposer des moyens de les tester, corriger ou encadrer. Définir et produire des indicateurs de performance prédictive et de qualité statistique, à destination des équipes métiers. Maîtrise approfondie des modèles de séries temporelles (ARIMA, état-espace, bayésiens hiérarchiques, etc.). Connaissance des problèmes d’endogénéité, des méthodes de contrôle (instruments, double robustesse, etc.). Maîtrise des tests statistiques (hypothèse, robustesse, validité externe), et des méthodologies d’AB testing. Compétence en analyse causale, ou capacité à discuter la causalité dans un environnement de données observationnelles.

Freelance

Mission freelance
Expert Dataiku / Data scientist - Anglais

KEONI CONSULTING
Publiée le
Dataiku
Microsoft Access
Python

18 mois
100-450 €
Paris, France

CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : DATA Compétences Technologies et Outils Access dataIKU Python VBA MISSIONS La mission principale consiste à aider notre équipe à migrer les requêtes existantes relatives à la fiabilité des données depuis ACCESS/VBA vers un projet Dataiku, ainsi qu'à développer une interface utilisateur personnalisée. De plus, le consultant aidera l'équipe à se familiariser avec l'outil et apportera son expertise en matière de bonnes pratiques d'utilisation et de gouvernance de la plateforme. Projet/applications Dataiku pour la fiabilité des données commerciales (placement, comptabilité technique et processus de réclamation). Pour certaines migrations d'outils ACCESS actuellement sur un serveur informatique central (projet ATLAS), nous souhaitons passer d'ACCESS à Dataiku. Afin de mener à bien cette migration avant la fin de l'année, nous avons besoin d'un développeur expert de la plateforme Dataiku.

CDI
Freelance

Offre d'emploi
ARCHITECTE FONCTIONNEL/DATA ANALYST - CAPITAL MARKETS (BANQUE D’INVESTISSEMENT) PARIS

Cogniwave dynamics
Publiée le
Architecture
Business Analysis

3 ans
Paris, France

Dans le cadre de projets de transformation au sein d’une grande banque d’investissement, nous recherchons un Architecte Fonctionnel / Data analyste spécialisé dans les environnements Capital Markets . Cette mission s’inscrit dans un contexte de refonte et d’optimisation des systèmes d'information liés aux activités de marchés (produits dérivés, fixed income, equity, FX, etc.). Vous devez obligatoirement avoir une bonne connaissance pratique et théorique des produits de marché, une expérience confirmée en capital markets et une maitrise d’outils SAS, Python ou SQL (Merci de ne pas postuler dans le cas contraire) Il s’agit d’un poste en CDI temps plein (Remote partiel) Salaire suivant expérience et qualifications plus Bonus de performance Bonus de publication Autres bonus et avantages (Mutuelle et prévoyance, tickets repas) Mission longue 3 ANS 2. OBJECTIFS DE LA MISSION L’architecte fonctionnel interviendra sur les missions suivantes : Définition de l’architecture fonctionnelle cible et alignement avec les besoins métiers. Analyse des processus front to front et front-to-back (trading, risk, ). Rédaction des spécifications fonctionnelles et des livrables d’architecture. Contribution aux phases de cadrage et d’étude d’impacts. Accompagnement des équipes projets dans l’implémentation des solutions. Veille à la cohérence des flux fonctionnels et à l’intégration des différentes briques applicatives. 3. ENVIRONNEMENT TECHNIQUE & FONCTIONNEL Domaines fonctionnels : Produits dérivés, Fixed Income, FX, Equity, Risk Management Environnement SI : systèmes de trading, outils de booking/valorisation, , moteurs de calculs de risque, systèmes réglementaires. Outils : SQL, SAS, Python , .. front office, capital market, trading, market risk, risque de marché architecte fonctionnel, + anglaise , data analyste , data scientist sql, sas, python, R.. commando, quant 4. ETL / DEVOPS Une bonne connaissance des processus ETL (extraction, transformation, chargement) est requise pour assurer l’intégration cohérente des données au sein des systèmes de marché. Une familiarité avec les pratiques DevOps (CI/CD, automatisation, gestion de version) constitue un atout pour fluidifier les déploiements et les évolutions applicatives.

Freelance

Mission freelance
Expert Azure Data - Asset Management & Cloud Transformation

STHREE SAS pour HUXLEY
Publiée le

9 mois
600 €
Île-de-France, France

We have a current opportunity for a Azure Data Factory Expert on a contract basis. The position will be based in Paris. For further information about this position please apply. Vous intervenez en tant qu' expert Azure Data Factory pour accompagner la transformation de l'entreprise : injection, stockage, traitement et analyse des données via les modules Azure (ADF, Synapse, Data Lake Gen2, Blob Storage, SQL Database, Analysis Services). Une expertise en automatisation des tests et en analyse de données assistée par IA serait un plus. Vous serez force de proposition pour faire évoluer le DataHub existant, en intégrant les données issues de la solution cible, tout en répondant aux exigences métier (qualité de la donnée, time to market, facilité d'intégration via SQL, API, cubes…). Vous collaborerez avec les équipes IT et Business Analyst dans un environnement Agile , en coordination avec les autres équipes impliquées dans le projet de transformation.

CDI
CDD
Freelance

Offre d'emploi
Développeur Fullstack Java Angular Confirmé

SILAMIR
Publiée le
Angular
Apache Kafka
Apache Maven

12 mois
40k-48k €
400-600 €
Maisons-Alfort, Île-de-France

Dans le cadre d’une mission au sein de la Direction des Services Informatiques de Bpifrance Assurance Export, nous recherchons un Développeur Fullstack Java/Angular Confirmé pour renforcer une équipe Agile SAFe. Vous interviendrez sur des applications stratégiques liées à l’Assurance Export, dans un environnement DevSecOps, et contribuerez à l’évolution, la maintenance et la qualité des solutions. VOS MISSIONS : Développer et maintenir des applications Java/Spring Boot et Angular dans le respect des standards techniques. Assurer la qualité du code via tests unitaires, d’intégration et End-to-End (JUnit, Cucumber, Selenium). Mettre en place et optimiser les pipelines CI/CD (Jenkins, Maven, DevSecOps). Corriger les anomalies et suivre les mises en production. Participer activement aux cérémonies Agile/SAFe, aux revues d’User Stories et au chiffrage des développements. Contribuer à l’amélioration continue et à l’innovation, notamment via l’usage d’IA générative.

Freelance
CDI

Offre d'emploi
Data Engineer AWS/Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

24 mois
Île-de-France, France

Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Freelance

Mission freelance
Data Engineers – ServiceNow / Snowflake

HIGHTEAM
Publiée le
DBT
ServiceNow
Snowflake

3 ans
500-600 €
Île-de-France, France

Pour l’un de nos clients grands comptes, nous recherchons un Data Engineers confirmé pour assurer la connexion, l’extraction et la structuration de données entre ServiceNow ITSM et Snowflake , dans un objectif de reporting et d’analyse. Missions principales Extraire et charger les données des modules ITSM : Management Incident Management Change Management Problème Management Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et analytique Implémenter des métadonnées , des logiques de rafraîchissement et des mécanismes de qualité de données Documenter : pipelines, modèles de données, points de reprise, etc. Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Visualisation : Tableau CI/CD & versioning : GitLab Documentation & suivi projet : Confluence, Jira

Freelance

Mission freelance
Ingénieur Ops Data & IA Lyon ou Lille/co

WorldWide People
Publiée le
Kubernetes
Python

12 mois
400-450 €
Lyon, Auvergne-Rhône-Alpes

Ingénieur Ops Data & IA Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication

Freelance

Mission freelance
PMO Data Transformation H/F

HAYS France
Publiée le
Azure
Data visualisation
PowerBI

3 mois
500-600 €
La Défense, Île-de-France

Dans le cadre de son programme de transformation, le groupe a initié un projet Data ambitieux visant à moderniser, simplifier et harmoniser l'infrastructure Data. Ce projet comprend la refonte de la plateforme logicielle, l'optimisation du modèle data et l'amélioration des outils de reporting. Architecture actuelle : Stockage des données : Oracle on premise Langage de programmation : PL SQL, SQL, SAS Data visualisation : SAS VIYA Plateforme : OBIEE Architecture cible : Stockage des données : Cloud Azure Langage de programmation : Pyspark Data visualisation : Power BI Plateforme : Power Apps ou autre à déterminer Le métier H&B a défini une stratégie globale que chaque pays doit décliner. La directrice Data, au sein de la direction des opérations business H&B, est en charge du projet pour la France.

Freelance
CDI
CDD

Offre d'emploi
Consultant Compliance & Sanctions (F/H)

Taleo Capital
Publiée le
Data analysis
Know your customer (KYC)

5 mois
50k-60k €
400-500 €
Paris, France

Contexte et objectifs de la mission Une grande banque internationale a récemment mis en place une nouvelle méthodologie pour la sélection des éléments constitutifs des listes géographiques (villes, ports, etc.) utilisées dans le cadre des programmes de Sanctions et de la politique interne de Sécurité Financière. Cette méthodologie vise à homogénéiser les pratiques tout en accélérant leur mise en œuvre en cas de changement. Le consultant interviendra en renfort dans le déploiement de cette méthodologie sur les 26 pays concernés par le référentiel interne. La mission se déroulera à Paris XIXème , débutera dès que possible, pour une durée de 5 mois. Missions principales Extraction et traitement des fichiers sources. Application des nouveaux paramètres de sélection. Définition des nouvelles listes d’entrées (géographies). Analyse d’écart avec les référentiels externes (Fircosoft, Dow Jones) et rédaction d’explications sur les écarts identifiés. Support opérationnel à l’équipe en charge de la Conformité et de la Sécurité Financière.

965 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous