Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 676 résultats.
Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka
VISIAN
Publiée le
Ansible
Elasticsearch
1 an
40k-45k €
400-620 €
Île-de-France, France
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
Offre d'emploi
DATA ANALYST RESEAUX SOCIAUX MI-TEMPS
KEONI CONSULTING
Publiée le
Data analysis
IA
Web
18 mois
20k-60k €
100-450 €
Paris, France
CONTEXTE Collaborer avec l’équipe de la direction de la communication digitale. MISSIONS : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe PROFIL & Expertises demandées: - Une expérience d’au moins trois ans dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences spécifiques, en social listening. Une maîtrise complète de Talkwalker (requêtage et paramétrage complexes) et X Pro est attendue ; la maîtrise d’autres outils de social listening ou de monitoring sera appréciée. Une expérience avancée en matière de suivi en direct des retombées est attendue, ainsi que des connaissances relatives à la création de cartographies de comptes RS sous Gephi. -Une expertise en communication de crise est nécessaire. Le consultant devra pouvoir évaluer l’ampleur, la gravité d’une crise réputationnelle et formuler des recommandations. - Une expérience avancée en matière d’études réputationnelles et de marketing d’influence est attendue pour la prestation. L’utilisation extensive d’outils de référencement de créateurs de contenus et le recours régulier à des méthodologies complexes d’analyse réputationnelle sont attendus. - Une excellente aisance rédactionnelle, à tout niveau de synthèse et d’analyse, est nécessaire. -La capacité de création de prompts avec une IA générative et de cas d’usages professionnels, à l’appui des différentes expertises attendues, sera valorisée. - Des connaissances étendues sur les sujets politiques, géopolitiques, sociétaux, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Mission freelance
Data Engineer Recyclage & Valorisation (Dep92)
EterniTech
Publiée le
Google Cloud Platform (GCP)
Java
Python
3 mois
300-400 €
Hauts-de-Seine, France
Mission : transformer les données en un véritable actif pour les métiers du Recyclage et de la Valorisation. Missions principales Maintenir et faire évoluer la plateforme Data : intégration de flux, suivi des batchs, performance et sécurité. Gestion des droits d’accès et interactions avec les consommateurs de données. Proposer des améliorations techniques (indexation, datamarts, pré-calculs KPI). Participer à l’amélioration continue de la qualité des données et assurer le support N3. Référent technique du socle Data et coordination avec la data gouvernance. Environnement technique Bases de données : SQL Server, BigQuery, PostgreSQL Langages : SQL, Python, Java, C++ DevOps : CI/CD, Azure DevOps, Git Cloud : Azure, GCP Outils BI et visualisation : Power BI, reporting Gouvernance et data management
Mission freelance
Profil Data Azure (modernisation applicative)
Signe +
Publiée le
ETL (Extract-transform-load)
12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Mission freelance
Concepteur/Rédacteur, Pôle Data & IA
Codezys
Publiée le
Conception
Intelligence artificielle
Rédaction
6 mois
Paris, France
Le prestataire aura pour mission principale d’assister la Responsable de la communication dans les activités suivantes : Activités principales : Recueil des besoins internes : Participer et animer des comités éditoriaux afin d’identifier les besoins et priorités internes. Collaborer avec différents interlocuteurs internes pour collecter des informations clés. Conception et rédaction de contenus : Identifier les thématiques pertinentes liées à la Data et à l’Intelligence Artificielle. Proposer des idées innovantes pour des contenus engageants et attractifs. Rédiger des articles, des publications pour les réseaux internes et divers supports de communication. Gestion et création de contenus multimédias : Produire des supports variés tels que articles, podcasts, vidéos, newsletters, Datalks, et événements. Traiter des demandes spécifiques en cohérence avec la stratégie de communication du Pôle. Concevoir et organiser des contenus adaptés à chaque canal pour optimiser leur impact. Organisation d'événements : Coordonner la planification et la logistique d’événements internes (Forum Data & IA, Datalks, etc.). Veiller à la qualité des interventions et au choix des thématiques, en collaboration avec les parties prenantes. Assurer la promotion des événements via les différents canaux de communication. Suivi de la production : Gérer la relation avec les prestataires externes (briefs, suivi, validations, etc.). Garantir le respect des délais et la qualité des livrables. Veille sectorielle : Rester informé des tendances et évolutions liées à la Data et à l’Intelligence Artificielle afin d’enrichir les contenus et d’ajuster la stratégie. Refonte de la newsletter interne : Imaginer, concevoir et piloter une refonte complète de la newsletter trimestrielle. Supports de communication à gérer : Le concepteur/rédacteur sera chargé de créer et d’administrer les contenus pour les supports suivants : Newsletter trimestrielle (tous les 3 mois) Newsletters thématiques (tous les 6 mois) Podcasts (tous les 2 mois) Datalks (tous les 2 mois) Portraits mensuels Forum Data & IA (événement annuel) Livre blanc (publication annuelle) Autres supports à développer en fonction des besoins du Pôle Data & IA
Offre d'emploi
Data Scientist Senior (Machine Learning, MLOps & IA Générative) - Lille (H/F)
STORM GROUP
Publiée le
MLOps
Pandas
Python
3 ans
50k-57k €
500-600 €
Lille, Hauts-de-France
Contexte du poste : Un acteur bancaire souhaite renforcer sa stratégie d’Intelligence Artificielle en développant des solutions avancées de Machine Learning, Deep Learning, NLP et IA Générative. L’objectif est de valoriser les données, optimiser les processus internes et améliorer l’expérience client grâce à des modèles robustes, explicables et industrialisés. Missions principales : 1. Modélisation Risque & Scoring Concevoir, optimiser et challenger les modèles de scoring d’octroi et de comportement. Explorer des approches innovantes pour améliorer la performance et la stabilité des modèles. Déployer les modèles en production et assurer leur monitoring (dérive, performance, stabilité). Travailler en étroite collaboration avec les équipes Risque, Validation et les experts métier. 2. Développement de Solutions IA Intégrer les modèles ML/AI en temps réel dans les parcours digitaux (scoring instantané, personnalisation des offres…). Participer à la conception de l’architecture technique (Cloud, MLOps, API, pipelines). Collaborer avec les équipes IT et Produit pour industrialiser les solutions et garantir leur scalabilité. 3. IA Générative & Agents Prototyper et déployer des solutions d’IA Générative (LLM, RAG, agents intelligents) pour transformer les processus internes (Marketing, Audit, Risque, Support…). Mettre en place des architectures agentiques pour automatiser des tâches complexes : analyse documentaire, octroi de crédit, interaction client. Évaluer et monitorer les performances des agents (cohérence, diversité, RAGAS, LLM-as-a-Judge…).
Offre d'emploi
Ingénieur Développement Java N3
REACTIS
Publiée le
API REST
Java
Oracle
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte Nous recherchons un Ingénieur Développement Java N3 pour rejoindre la squad InStore d’un acteur majeur de la pré-acquisition en France. La mission vise l’intégration d’un nouveau client (services, protocoles, IHM) dans un environnement PCI-DSS, avec un focus sur l’innovation (omni-canal, instant payment, nouveaux services). Missions principales Développement et maintenance : Analyser les besoins et proposer des solutions techniques adaptées. Développer de nouvelles fonctionnalités en respectant les normes et standards. Assurer la maintenance corrective et évolutive des applications existantes. Collaboration et amélioration continue : Travailler avec les équipes projets (Développeurs, PO, QA, DevOps). Participer à l’amélioration continue des processus de développement. Rédiger et maintenir la documentation technique. Compétences techniques (MUST HAVE) Java 17+ (expert) – obligatoire. Spring 6 (incluant Spring Boot 3 et Spring Data 3) – obligatoire. Bases de données : Oracle, PostgreSQL, MySQL – important. API REST et Web Services – important. Outils : Git/GitLab, IntelliJ.
Offre d'emploi
Program IT Lead - R&D Cloud, Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
Azure
Cybersécurité
6 mois
Occitanie, France
Program IT Lead pour un programme R&D Data & IA d’envergure. Pilotage d’une transformation Cloud & Data visant à accélérer les usages IA en recherche médicale et biostatistique. Construction et opération d’un Cloud-as-a-Service industrialisé, sécurisé, observable et conforme aux exigences réglementaires. Gouvernance des architectures, du delivery et des coûts via une démarche FinOps en environnement multi-cloud. Rôle d’interface entre IT, data, sécurité et métiers R&D pour transformer des besoins complexes en solutions robustes, audit-ready et scalables.
Mission freelance
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT
WorldWide People
Publiée le
DBT
Informatica PowerCenter
12 mois
490-620 £GB
Niort, Nouvelle-Aquitaine
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT- Expérimenté Niort - 2 jours de télétravail AGILE,DBT,Analyste Fonctionnel,Informatica Power Center La mission s’inscrit au sein des activités Data Solutions et Intelligence Artificielle, dont les objectifs sont d’améliorer la valorisation des données et de développer des usages IA responsables. L’équipe a pour rôle : de collecter, organiser et transformer les données afin qu’elles puissent être exploitées efficacement par l’ensemble des métiers, d’être un acteur clé de l’exécution de la stratégie Data, et de favoriser l’adoption de cas d’usage IA performants et fiables, au service des collaborateurs et des clients internes. L’environnement est structuré autour d’un écosystème Data riche, en constante évolution, nécessitant une bonne compréhension technique et une capacité à intervenir sur différents leviers data & IA. Objectifs et livrables Dans le cadre de cette mission, le consultant interviendra sur plusieurs volets critiques : Analyse d’incidents – OMC Personne Analyse approfondie des incidents liés à l’OMC Personne. Identification des causes racines, propositions de corrections et suivi des actions associées. Intégration des évolutions nécessaires dans le fonctionnement de la plateforme. Développements Data Participation aux développements prévus sur les briques Informatica et DBT. Intégration et transformation des données dans le respect des bonnes pratiques data engineering. Contribution à l’industrialisation et à la qualité des pipelines. Contribution à l’amélioration continue Participation aux rituels et travaux data transverses. Proposition d’optimisations techniques et fonctionnelles. Veille active sur les bonnes pratiques et les outils data & IA.
Mission freelance
Chef de projets IT – Data / BI / IoT ( Systèmes connectés )
AVALIANCE
Publiée le
Agile Scrum
Gestion de projet
IoT
3 ans
400-550 €
Maurepas, Île-de-France
Dans le cadre du renforcement de la DSI d’un grand groupe, nous recherchons un Chef de projets IT Senior pour intervenir au sein du service Systèmes connectés. La mission s’inscrit dans un environnement Data / BI / IoT, avec des enjeux forts autour de la modernisation des plateformes, de la BI et du décommissionnement d’anciens systèmes. Le consultant interviendra sur plusieurs projets en BUILD et RUN, notamment autour d’une nouvelle plateforme IoT et de solutions BI / Reporting associées. Il jouera un rôle clé de Chef de projets avec une casquette Product Owner, en charge du pilotage opérationnel, du cadrage des besoins et de la coordination des équipes. -Missions principales Pilotage de plusieurs projets IT (Data / BI / Interfaces) Cadrage des besoins métiers et animation des ateliers Rédaction des Features et User Stories Organisation et pilotage des recettes fonctionnelles Suivi des développements, des plannings et des budgets Animation des comités projets et production des supports de reporting Coordination d’équipes multi-localisées (France / offshore) Participation aux cérémonies Agile / SAFe (daily, review, PI Planning…)
Mission freelance
Proxy Product Owner (P.PO) Data
Celexio
Publiée le
Database
Product management
Snowflake
1 an
500-600 €
Paris, France
Proxy PO (P.PO) Data / Snowflake Contexte Projet Au sein d'un grand groupe international, nous recherchons un Proxy Product Owner pour intégrer l'équipe de notre client et travailler avec le PO en place. Projet Datalake, qui gère le pilotage des risques au sein du groupe. Renfort sur la partie "RUN" et monitoring Missions Principales Gestion du RUN : Suivi, rédaction et analyse des incidents. Structuration de la partie support/maintenance. Data & Monitoring : Suivi de la data sur le changement des services. Documentation : Travail de rétro-ingénierie pour documenter l'existant. Change Management : Accompagnement via des vidéos et des ateliers/workshops. Coordination : Collaboration avec le PO déjà en place et lien avec les équipes en Inde (Offshore).
Mission freelance
[MDO] Ingénieur Data (Min 5 ans d'expérience)
ISUPPLIER
Publiée le
Dataiku
ETL (Extract-transform-load)
Python
12 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Mission : Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. Aide aux équipes métier à développer, déployer et opérer les solutions qui leur permettront d’atteindre leurs objectifs. Sachant technique de la solution et en particulier des données manipulées. Le point de contact naturel et privilégié des équipes métier pour les sujets d’exposition, d’exploitation de données d’usines dans des conditions industrielles. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs
Mission freelance
Ingénieur Data Oracle/SQL/Python
CS Group Solutions
Publiée le
Apache Airflow
Git
Oracle
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Offre premium
Mission freelance
Développeur Oracle Intégration Cloud (OIC)
GALULA CONSULTING
Publiée le
ODI Oracle Data Integrator
Oracle
Oracle BI Publisher
1 an
500-650 €
Île-de-France, France
📌 Contexte du poste Dans le cadre du développement de notre écosystème applicatif et de la modernisation de nos processus métiers, nous recherchons un Développeur Oracle OIC. Tu interviendras au cœur de nos projets d’intégration, en lien étroit avec les équipes techniques, fonctionnelles et nos partenaires. 🎯 Missions principales Développement & intégration • Concevoir, développer et maintenir des intégrations sur Oracle Integration Cloud (OIC). • Créer et optimiser des flux d’intégration entre Oracle Cloud, Oracle EBS et d’autres applications internes ou externes. • Développer des API, orchestrations, mappings et connecteurs OIC. Analyse & conception • Participer à la définition des besoins métiers et techniques. • Proposer des solutions d’intégration robustes, évolutives et sécurisées. • Rédiger la documentation technique (spécifications, schémas d’architecture, guides d’exploitation). Support & amélioration continue • Assurer le support de niveau 2/3 sur les intégrations existantes. • Diagnostiquer et résoudre les incidents liés aux flux OIC. • Contribuer à l’amélioration continue des processus d’intégration et des bonnes pratiques DevOps.
Mission freelance
Mission de transition IT – Proxy Product Owner Data (Run focus)
Comet
Publiée le
CyberSoc
1 an
400-590 €
Île-de-France, France
Dans un contexte de turnover / reprise de périmètre , un grand groupe international recherche un(e) Proxy Product Owner Data pour intervenir sur une application data à fort enjeu cybersécurité , actuellement en phase de RUN. 🎯 Contexte de la mission Environnement IT structuré et exigeant Application data critique à usage cybersécurité Passage Build → RUN à sécuriser Forte interaction avec les équipes IT, data et utilisateurs finaux Mission orientée stabilisation, fiabilisation et continuité opérationnelle Responsabilités principales Piloter la transition et la stabilisation du RUN Gérer et prioriser le backlog incidents RUN (ServiceNow) Arbitrer les tickets RUN selon les risques et impacts business Coordonner l’analyse et le traitement des incidents avec les équipes de développement Produire des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting sur les flux et datasets data Garantir la performance opérationnelle et la fiabilité des solutions data Contribuer à l’accompagnement et au support des utilisateurs (reporting et modèles data)
Mission freelance
Infrastructure Engineer Expert
Codezys
Publiée le
Apache Tomcat
Axway
Azure
12 mois
Paris, France
Groupe d'une société d'assurance et de services financiers est une entreprise spécialisée en informatique fournissant des services à ses entités opérant dans le secteur bancaire et des assurances. Elle développe et exploite des solutions métier transversales à l'échelle internationale. Travaillant pour différentes entités du groupe, cette organisation dispose d'un champ d'action mondial avec des bureaux dans plusieurs pays. Ingénieur Infrastructure Expert - Service de Transfert de Fichiers Services : Gestion des systèmes, bases de données et réseaux. Maintenance et support applicatif. Gestion des processus IPC. Gestion de projets. Qualité de service (QoS) et gouvernance. Soutien à l'infrastructure informatique pour les équipes métier et développement. Support à la production et prestation de services IT. Soutien au développement et à la maintenance des applications métier. Objectifs et livrables Plateformes de transfert de fichiers transversales gérées. Installation, mises à jour et maintenance des plateformes. Surveillance de la production et résolution des incidents techniques. Administration des transferts de données internes et externes, en lien avec divers partenaires. Support aux clients pour la mise en œuvre des transferts, avec assistance dans la résolution des incidents applicatifs. Soutien au transfert de fichiers en production, avec priorisation des activités. Construction de scripts et suivi des exécutions de transferts de fichiers. Surveillance des applications et reporting. Analyse et préparation de documentation précise pour la production. Soutien à la gestion des incidents, des problèmes et des changements en environnement d'entreprise, en apportant un support de 3e niveau. Amélioration et extension de la stabilité et des performances des systèmes opérationnels. Création et optimisation des guides opérationnels, des instructions d'implémentation et de la documentation nécessaire. Mise en œuvre de demandes de travaux standard (selon des normes internes et l'utilisation d'une plateforme de gestion des services). Résolution des incidents dans les domaines techniques concernées. Développement de scripts pour automatisation et traitements par lots, en collaboration étroite avec les équipes de développement. Création de scripts conformément aux normes et procédures internes. Soutien et suivi des services sur les serveurs en production. Rédaction technique de la documentation conformément aux réglementations internes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1676 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois