L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 549 résultats.
Offre d'emploi
Data Designer
CAT-AMANIA
Publiée le
Confluence
Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Offre d'emploi
AMOA / Business Analyst Data - H/F
K-Lagan
Publiée le
AMOA
Cloudera
Informatica
1 an
45k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , proximité et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Consultant AMOA Data (F/H) pour rejoindre l’un de nos clients des secteurs Assurances basé entre à Niort . Missions principales : Accompagner les équipes métiers dans leurs usages autour de la data Réaliser des analyses et apporter du conseil sur les sujets data Assurer le support fonctionnel auprès des utilisateurs Participer à la production des livrables fonctionnels Concrètement : Recueillir et analyser les besoins métiers Conseiller les équipes sur l’exploitation des données Participer au cadrage et aux études de faisabilité des projets data Garantir la cohérence des solutions mises en place Réaliser les recettes fonctionnelles et suivre les anomalies Produire la documentation (spécifications, modélisation de données) Assurer le suivi de la qualité et la satisfaction des utilisateurs
Mission freelance
Concepteur Développeur HR ACCESS (profil généraliste) Nantes ( 3 à 4 jours de télétravail)
WorldWide People
Publiée le
HR Access
6 mois
Nantes, Pays de la Loire
Concepteur Développeur HR ACCESS (profil généraliste) Nantes ( 3 à 4 jours de télétravail) HR Access Suite 9, HR Access GA, Oracle, SQL, PL/SQL Début juillet (courant juin possible) 6 à 12 mois Nantes ( 3 à 4 jours de télétravail) HR Access Suite 9, HR Access GA, Oracle, SQL, PL/SQL -Conception -Développement de traitements HR Access -Paramétrage Nous recherchons un développeur HR ACESS (profil généraliste) avec minimum 4-5 ans d'expérience. Pas besoin de spécialisation sur le module paie pour ce besoin.
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Consultant Senior – Data Migration SAP / Talend (H/F)
KN CONSULTING
Publiée le
Legacy System Migration Workbench (LSMW)
SAP MM
SAP PP
6 mois
400-700 €
Corbeil, Grand Est
Contexte mission Dans un environnement industriel critique, nous recherchons un consultant senior pour intervenir sur une migration de données complexe en difficulté . Le projet nécessite une forte capacité de structuration, de remise à plat et de sécurisation des flux de données. Missions Mise en œuvre de flux de migration via Talend (ETL) Mapping, transformation et réconciliation de données Contrôle des écarts et data quality Mise en place de protocoles de migration Contribution à une approche structurée de type migration factory
Mission freelance
Data Scientist / GenAI /LLM
Pickmeup
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Offre d'emploi
data engineer AWS, Snowflake, SAP
LEVUP
Publiée le
AWS Glue
MySQL
Python
1 an
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Participer à une intégration d'SAP Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) SAP Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS
UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks
1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Offre d'emploi
Concepteur / Développeur Cobol
ICSIS
Publiée le
COBOL
Développement
Lille, Hauts-de-France
Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des concepteurs / Développeurs Cobol H/F. La mission consiste à : - Analyse du besoin - Rédaction des spécifications fonctionnelles et techniques - Développement, Réalisation des tests unitaires - Livraison sur environnement de recette - Participation aux phases de recette, de mise en production et suivi Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des concepteurs / Développeurs Cobol H/F. De formation Bac+3/5 (Ecole d’ingénieur ou Université), vous justifiez d’une expérience réussie en conception et développement d’applications en environnement Mainframe (MVS, UNIX, Cobol, DB2) et vous avez acquis des connaissances fonctionnelles.
Mission freelance
Chef de Projet bancaire Senior – Sécurité et IA
CELAD
Publiée le
Agent IA
Cloud
Confluence
12 mois
550-580 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Senior – DSI Sécurité Groupe pour intervenir chez un de nos clients dans le secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter les initiatives CHANGE et RUN sur le périmètre Sécurité Groupe (Cyber TRM, Sécurité des Personnes et des Biens…). - Cadrage, étude de faisabilité, définition et validation des prérequis techniques et sécurité, planification et suivi des chantiers. - Coordination avec l’ensemble des acteurs : Métiers, DSI, Production applicative, éditeurs. - Préparer et animer les comités, produire la documentation et les reportings pour le comité de pilotage et les audits. - Contribuer à des projets innovants : IA générative, chatbots LLM, automatisation Pen tests, quantification financière des risques cyber, plateforme e-learning TRM. - Garantir la cohérence, la qualité et la conformité des projets avec les standards internes et réglementaires.
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
OBJECTWARE
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-83k €
400-610 €
Île-de-France, France
La mission consistera à fournir des analyses & reportings sur la qualité des données du client, sur les outils Dataiku et Tableau. Recueillir les expressions de besoin des Directions et organiser / animer les ateliers de cadrage avec les métiers • Réaliser la préparation des données sous Dataiku • Mettre à jour le dictionnaire de données/ Documentation • Développer en mode agile (sprint de 2 semaines, daily meeting, sprint planning, sprint review, retrospective, démonstrations,…) • Créer les dashboards sous Tableau • Organiser la recette avec les métiers • Appliquer les bonnes pratiques de l’équipe en matière de datapreparation/ datavisualisation • Effectuer la migration des projets sous SAS vers Dataiku
Offre d'emploi
Expert IBM Infosphere - Data Replication
VISIAN
Publiée le
AS/400
IBM DataStage
1 an
Paris, France
Contexte Dans le cadre du programme qui vise à construire une Data Platform intégrée , la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud) . Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace. Nous recherchons un Expert IBM IDR qui aura pour mission de stabiliser la solution, améliorer la scalabilité et accompagner l'élargissement du périmètre des données répliquées.
Mission freelance
Data Analyst
PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance
1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Offre d'emploi
Security Data Engineer - Structuration Logs Cybersecurite
PSSWRD
Publiée le
Cybersécurité
Data Lake
Logstash
1 an
40k-45k €
500-700 €
Issy-les-Moulineaux, Île-de-France
Au sein de la direction cybersécurité d'un grand groupe international du secteur hôtelier, vous interviendrez en tant que Security Data Engineer pour structurer et optimiser l'ensemble de l'écosystème de logs de sécurité. Aujourd'hui, les logs proviennent de multiples sources et outils avec des formats hétérogènes, rendant leur corrélation et leur exploitation difficile. Votre mission sera d'inventorier l'ensemble des sources de logs, de définir une nomenclature unifiée et des pipelines de normalisation, d'organiser le stockage en distinguant le temps réel (SIEM Splunk) du stockage économique pour la conformité, et de proposer une architecture data cible intégrée a la démarche data globale de l'entreprise. Vous serez la personne référente sur la partie data au sein de l'équipe cyber, avec une forte autonomie et un rôle de force de proposition. Vos missions principales : ● Cartographier l'écosystème existant (outils, sources, cas d'usage) et proposer une architecture cible avec roadmap ● Créer un référentiel complet des sources de logs (volume, format, fréquence, qualité, valeur cyber) ● Définir et implémenter une normalisation unifiée des logs (Common Information Model) et les pipelines de transformation ● Optimiser la collecte : réduire le bruit, filtrer, enrichir (CTI, Threat Intelligence) et améliorer la qualité des données ● Collaborer avec les équipes SOC (temps réel), GRC (conformité/reporting) et les équipes data métier de l'entreprise ● Assurer le transfert de compétences et la formation des équipes a l'exploitation des logs et des outils
Mission freelance
POT9074 - Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux
Almatek
Publiée le
Python
6 mois
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients ,Un Concepteur et développeur Python, Angular, AWS Sur Bordeaux Description détaillée : Pour un client majeur ,expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications. Compétences techniques Python - Expert - Impératif Angular - Expert - Impératif AWS - Expert - Impératif Indus DevOps & IA - Expert - Impératif Le livrable est: Expertise, Conception, Réalisation, Accompagnement Définition du profil: À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. En générale, nécessite un minimum de + de 10 ans d'expérience
Mission freelance
WebApp Developer React / Node.js – Intégration GenAI (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
GenAI
Node.js
12 mois
Paris, France
Dans le cadre du renforcement d’une équipe digitale, nous recherchons un WebApp Developer Fullstack afin de contribuer au développement d’une application web intégrant des fonctionnalités d’intelligence artificielle générative. Le rôle du consultant est centré sur l’intégration concrète de composants GenAI (LLM, APIs IA) au sein d’une application existante, avec un impact direct sur les parcours utilisateurs. Ce poste ne correspond pas à un rôle fullstack classique : une expérience réelle en intégration d’IA générative est indispensable.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2549 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois