Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
DATA ENGINEER ETL / SEMARCHY F/H | STRASBOURG (67)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur des projets d'envergure. A ce titre, vous serez en charge de : Gérer les demandes et participer au pilotage de projet Echanger avec la MOA et les utilisateurs Réaliser l'analyse et rédiger les spécifications techniques. Modéliser les données et optimiser les architectures décisionnelles. Concevoir et développer des flux ETL. Rédiger la documentation technique et fonctionnelle. Participer à la recette et au suivi de production. Environnement Technique : Vertica, Semarchy, SAP BO, SQL Le poste est basé à Strasbourg (67) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Mission freelance
Business Analyst Data Senior (Asset Management / Cloud Azure)
Vous rejoignez une équipe de 10 personnes pour accompagner la transformation Data de l'entreprise. Votre rôle : Définir le modèle cible de données , conciliant les besoins métiers et les standards de la nouvelle plateforme. Préserver la cohérence avec le modèle historique tout en intégrant les apports du modèle de l'éditeur. Proposer des solutions équilibrées entre contraintes court terme (intégration, délais, coûts) et enjeux long terme (évolutivité, maintenance, cohérence). Travailler en méthodologie Agile , en lien étroit avec les développeurs, analystes et autres équipes projet.

Mission freelance
Ingénieur Devops / DataOps
Notre client, une société innovante est spécialisée dans le traitement et l’analyse de données environnementales complexes, avec une expertise particulière dans la surveillance de la qualité de l’air. Elle conçoit et déploie des systèmes intelligents qui permettent de détecter, classifier et anticiper des événements liés à la pollution atmosphérique, notamment dans des environnements sensibles et exigeants comme l’aéronautique. L’entreprise associe plusieurs briques technologiques : · Capteurs physiques de haute précision, capables de collecter un large volume de données en temps réel, · Solutions logicielles de traitement et de modélisation, · Algorithmes d’intelligence artificielle pour identifier des signaux faibles et prédire des phénomènes complexes, · Outils de visualisation avancée pour rendre les résultats accessibles et exploitables par les décideurs. Basée au cœur d’un écosystème de recherche et d’innovation (proximité avec de grandes écoles d’ingénieurs et centres de R&D), cette société combine un esprit startup agile avec des projets de forte valeur sociétale et scientifique. Elle s’adresse aussi bien aux acteurs industriels qu’aux organisations publiques ou parapubliques soucieuses de mieux comprendre et maîtriser leur empreinte environnementale.

Mission freelance
97071/Technicien datacenter Lyon
Technicien datacenter Lyon: IT Services, Data Center Installation of cages and racks, Data Center construction and deconstruction Activités - Déconnexion matériel informatique en datacenter, - Dérackage, - Déplacement, Conditionnement, Préparation à enlèvement des matériels sur quai transporteur Compétences - Certification H0B0 exigée - CACES apprécié Localisation : La Mulatière Plage horaire standard Télétravail non autorisé Qualifictions : IT Services,DC Installation of cages and racks,DC construction and deconstructionTechnicien datacenter Lyon

Offre d'emploi
Ingénieur(e) DATA GCP
Nous recherchons un(e) ingénieur(e) DevOps Junior ayant des compétences solides sur - KAFKA - Google Cloud Platform - JQUERY IMPORTANT : cette opportunité est à pourvoir uniquement pour une mission de pré-embauche ou pour une embauche directe en CDI chez notre client. MISSION PRINCIPALE : Vous accompagnerez le client dans la mise en place de projets en Agile (SAFe) et le déploiement d'applications en collaboration avec les équipes produit et parties prenantes métier. L'équipe est aujourd'hui constituée d'une 10aine de profils pluridisciplinaires

Offre d'emploi
Ingénieur(e) DATA GCP
Nous recherchons un(e) ingénieur(e) DevOps Junior ayant des compétences solides sur - KAFKA - Google Cloud Platform - JQUERY IMPORTANT : cette opportunité est à pourvoir uniquement pour une mission de pré-embauche ou pour une embauche directe en CDI chez notre client. MISSION PRINCIPALE : Vous accompagnerez le client dans la mise en place de projets en Agile (SAFe) et le déploiement d'applications en collaboration avec les équipes produit et parties prenantes métier. L'équipe est aujourd'hui constituée d'une 10aine de profils pluridisciplinaires

Mission freelance
Data Scientist Séries temporelles H/F
Comprendre finement les mécanismes du Revenue Management dans un contexte aérien : dynamiques de réservation, effets prix, anticipation, segmentation, etc. Concevoir, tester et mettre en œuvre un nouveau modèle de prévision de la demande, basé sur des approches de séries temporelles modernes (ML, statistiques bayésiennes, etc.) dans un contexte multi-segments, multi-horizons et incertain. Garantir l’interprétabilité, la robustesse statistique et la fiabilité des prévisions, afin de permettre aux équipes métiers RM d’exploiter efficacement les résultats dans un système de décision. Intégrer une réflexion rigoureuse sur les biais, les sources d’endogénéité, et les incertitudes des modèles, et proposer des moyens de les tester, corriger ou encadrer. Définir et produire des indicateurs de performance prédictive et de qualité statistique, à destination des équipes métiers. Maîtrise approfondie des modèles de séries temporelles (ARIMA, état-espace, bayésiens hiérarchiques, etc.). Connaissance des problèmes d’endogénéité, des méthodes de contrôle (instruments, double robustesse, etc.). Maîtrise des tests statistiques (hypothèse, robustesse, validité externe), et des méthodologies d’AB testing. Compétence en analyse causale, ou capacité à discuter la causalité dans un environnement de données observationnelles.

Mission freelance
Expert Dataiku / Data scientist - Anglais
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : DATA Compétences Technologies et Outils Access dataIKU Python VBA MISSIONS La mission principale consiste à aider notre équipe à migrer les requêtes existantes relatives à la fiabilité des données depuis ACCESS/VBA vers un projet Dataiku, ainsi qu'à développer une interface utilisateur personnalisée. De plus, le consultant aidera l'équipe à se familiariser avec l'outil et apportera son expertise en matière de bonnes pratiques d'utilisation et de gouvernance de la plateforme. Projet/applications Dataiku pour la fiabilité des données commerciales (placement, comptabilité technique et processus de réclamation). Pour certaines migrations d'outils ACCESS actuellement sur un serveur informatique central (projet ATLAS), nous souhaitons passer d'ACCESS à Dataiku. Afin de mener à bien cette migration avant la fin de l'année, nous avons besoin d'un développeur expert de la plateforme Dataiku.
Offre d'emploi
ARCHITECTE FONCTIONNEL/DATA ANALYST - CAPITAL MARKETS (BANQUE D’INVESTISSEMENT) PARIS
Dans le cadre de projets de transformation au sein d’une grande banque d’investissement, nous recherchons un Architecte Fonctionnel / Data analyste spécialisé dans les environnements Capital Markets . Cette mission s’inscrit dans un contexte de refonte et d’optimisation des systèmes d'information liés aux activités de marchés (produits dérivés, fixed income, equity, FX, etc.). Vous devez obligatoirement avoir une bonne connaissance pratique et théorique des produits de marché, une expérience confirmée en capital markets et une maitrise d’outils SAS, Python ou SQL (Merci de ne pas postuler dans le cas contraire) Il s’agit d’un poste en CDI temps plein (Remote partiel) Salaire suivant expérience et qualifications plus Bonus de performance Bonus de publication Autres bonus et avantages (Mutuelle et prévoyance, tickets repas) Mission longue 3 ANS 2. OBJECTIFS DE LA MISSION L’architecte fonctionnel interviendra sur les missions suivantes : Définition de l’architecture fonctionnelle cible et alignement avec les besoins métiers. Analyse des processus front to front et front-to-back (trading, risk, ). Rédaction des spécifications fonctionnelles et des livrables d’architecture. Contribution aux phases de cadrage et d’étude d’impacts. Accompagnement des équipes projets dans l’implémentation des solutions. Veille à la cohérence des flux fonctionnels et à l’intégration des différentes briques applicatives. 3. ENVIRONNEMENT TECHNIQUE & FONCTIONNEL Domaines fonctionnels : Produits dérivés, Fixed Income, FX, Equity, Risk Management Environnement SI : systèmes de trading, outils de booking/valorisation, , moteurs de calculs de risque, systèmes réglementaires. Outils : SQL, SAS, Python , .. front office, capital market, trading, market risk, risque de marché architecte fonctionnel, + anglaise , data analyste , data scientist sql, sas, python, R.. commando, quant 4. ETL / DEVOPS Une bonne connaissance des processus ETL (extraction, transformation, chargement) est requise pour assurer l’intégration cohérente des données au sein des systèmes de marché. Une familiarité avec les pratiques DevOps (CI/CD, automatisation, gestion de version) constitue un atout pour fluidifier les déploiements et les évolutions applicatives.
Mission freelance
Expert Azure Data - Asset Management & Cloud Transformation
We have a current opportunity for a Azure Data Factory Expert on a contract basis. The position will be based in Paris. For further information about this position please apply. Vous intervenez en tant qu' expert Azure Data Factory pour accompagner la transformation de l'entreprise : injection, stockage, traitement et analyse des données via les modules Azure (ADF, Synapse, Data Lake Gen2, Blob Storage, SQL Database, Analysis Services). Une expertise en automatisation des tests et en analyse de données assistée par IA serait un plus. Vous serez force de proposition pour faire évoluer le DataHub existant, en intégrant les données issues de la solution cible, tout en répondant aux exigences métier (qualité de la donnée, time to market, facilité d'intégration via SQL, API, cubes…). Vous collaborerez avec les équipes IT et Business Analyst dans un environnement Agile , en coordination avec les autres équipes impliquées dans le projet de transformation.

Offre d'emploi
Développeur Fullstack Java Angular Confirmé
Dans le cadre d’une mission au sein de la Direction des Services Informatiques de Bpifrance Assurance Export, nous recherchons un Développeur Fullstack Java/Angular Confirmé pour renforcer une équipe Agile SAFe. Vous interviendrez sur des applications stratégiques liées à l’Assurance Export, dans un environnement DevSecOps, et contribuerez à l’évolution, la maintenance et la qualité des solutions. VOS MISSIONS : Développer et maintenir des applications Java/Spring Boot et Angular dans le respect des standards techniques. Assurer la qualité du code via tests unitaires, d’intégration et End-to-End (JUnit, Cucumber, Selenium). Mettre en place et optimiser les pipelines CI/CD (Jenkins, Maven, DevSecOps). Corriger les anomalies et suivre les mises en production. Participer activement aux cérémonies Agile/SAFe, aux revues d’User Stories et au chiffrage des développements. Contribuer à l’amélioration continue et à l’innovation, notamment via l’usage d’IA générative.

Offre d'emploi
Data Engineer AWS/Databricks
Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Mission freelance
Data Engineers – ServiceNow / Snowflake
Pour l’un de nos clients grands comptes, nous recherchons un Data Engineers confirmé pour assurer la connexion, l’extraction et la structuration de données entre ServiceNow ITSM et Snowflake , dans un objectif de reporting et d’analyse. Missions principales Extraire et charger les données des modules ITSM : Management Incident Management Change Management Problème Management Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et analytique Implémenter des métadonnées , des logiques de rafraîchissement et des mécanismes de qualité de données Documenter : pipelines, modèles de données, points de reprise, etc. Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Visualisation : Tableau CI/CD & versioning : GitLab Documentation & suivi projet : Confluence, Jira

Mission freelance
Ingénieur Ops Data & IA Lyon ou Lille/co
Ingénieur Ops Data & IA Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication
Mission freelance
PMO Data Transformation H/F
Dans le cadre de son programme de transformation, le groupe a initié un projet Data ambitieux visant à moderniser, simplifier et harmoniser l'infrastructure Data. Ce projet comprend la refonte de la plateforme logicielle, l'optimisation du modèle data et l'amélioration des outils de reporting. Architecture actuelle : Stockage des données : Oracle on premise Langage de programmation : PL SQL, SQL, SAS Data visualisation : SAS VIYA Plateforme : OBIEE Architecture cible : Stockage des données : Cloud Azure Langage de programmation : Pyspark Data visualisation : Power BI Plateforme : Power Apps ou autre à déterminer Le métier H&B a défini une stratégie globale que chaque pays doit décliner. La directrice Data, au sein de la direction des opérations business H&B, est en charge du projet pour la France.

Offre d'emploi
Consultant Compliance & Sanctions (F/H)
Contexte et objectifs de la mission Une grande banque internationale a récemment mis en place une nouvelle méthodologie pour la sélection des éléments constitutifs des listes géographiques (villes, ports, etc.) utilisées dans le cadre des programmes de Sanctions et de la politique interne de Sécurité Financière. Cette méthodologie vise à homogénéiser les pratiques tout en accélérant leur mise en œuvre en cas de changement. Le consultant interviendra en renfort dans le déploiement de cette méthodologie sur les 26 pays concernés par le référentiel interne. La mission se déroulera à Paris XIXème , débutera dès que possible, pour une durée de 5 mois. Missions principales Extraction et traitement des fichiers sources. Application des nouveaux paramètres de sélection. Définition des nouvelles listes d’entrées (géographies). Analyse d’écart avec les référentiels externes (Fircosoft, Dow Jones) et rédaction d’explications sur les écarts identifiés. Support opérationnel à l’équipe en charge de la Conformité et de la Sécurité Financière.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.