L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 458 résultats.
Offre d'emploi
Administrateur système et réseaux H/F
OBJECTWARE
Publiée le
Administration réseaux
Administration système
1 an
Tours, Centre-Val de Loire
Nous recherchons un Administrateur système et réseaux H/F pour une mission à Tours. Administrer et exploiter les infrastructures systèmes (serveurs, virtualisation, sauvegardes) et réseaux Assurer la supervision, le maintien en conditions opérationnelles et la sécurité des environnements Gérer les incidents et demandes de support (N2/N3) Participer aux projets d’évolution et de modernisation de l’infrastructure Automatiser les tâches récurrentes et améliorer les processus Rédiger et maintenir la documentation technique
Mission freelance
Consultant Senior MarTech – Expertise Adobe Experience Cloud (AEM)
Mon Consultant Indépendant
Publiée le
MOA
Supply Chain
6 mois
650-690 €
Paris, France
Contexte : Dans le cadre d’un programme de transformation digitale à l’échelle européenne, une entité transverse accompagne plusieurs banques de détail dans la refonte et la mutualisation de leur stack MarTech. Un enjeu majeur porte sur la structuration de la Content Supply Chain et l’industrialisation des capacités de personnalisation, avec un usage avancé des solutions Adobe Experience Cloud. Objectifs de la mission : · Structurer et optimiser la Content Supply Chain à l’échelle multi-entités. · Définir et accompagner la mise en place d’un Centre d’Excellence MarTech. · Contribuer à la refonte de la stack MarTech avec un focus fort sur les solutions Adobe. · Piloter des projets d’évolution applicative en environnement international. · Activités principales · Analyser et rationaliser la stack MarTech existante avec un focus sur les solutions Adobe. · Identifier les opportunités de mutualisation autour des outils Adobe Experience Cloud. · Définir des scénarios cibles intégrant Adobe Experience Manager (AEM), Adobe Experience Platform et autres briques Adobe. · Contribuer au business case et au Target Operating Model. · Piloter des projets MOA de bout en bout. · Conduire les phases de recette fonctionnelle et les tests d’interopérabilité. · Piloter et faire évoluer une application de personnalisation web (bannières dynamiques) en lien avec les outils Adobe. · Coordonner les parties prenantes multi-pays. · Accompagner l’intégration des solutions Adobe dans les entités locales. Environnement bancaire : Banque de détail internationale en transformation digitale multi-pays, avec enjeux de distribution omnicanale et d’expérience client personnalisée, reposant fortement sur les solutions Adobe Experience Cloud. Expérience : 8 à 12 ans d'expérience dans le domaine de la transformation digitale sur les suites d'outils Adobe.
Offre d'emploi
Chef de projet DATA / Delivery Master DATA
DATAMED RESEARCH
Publiée le
Animation
Gestion de projet
Pilotage
12 mois
40k-65k €
450-630 €
Paris, France
Objectifs et livrables Dans le cadre de cette mission, le Delivery Master Data sera responsable de la coordination et de l’accompagnement des équipes projets afin d’assurer la bonne livraison des initiatives Data. Il occupe un rôle central à l’interface entre les équipes techniques, les chefs de projet et les parties prenantes métiers. Missions principales 1. Pilotage des projets Data Planifier et organiser les projets de bout en bout, de la phase d’étude jusqu’à la mise en production Coordonner les équipes multidisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI et mettre en place des plans d’actions correctifs si nécessaire 2. Gestion de la qualité et des délais Garantir le respect des délais et des standards de qualité Veiller à l’application des bonnes pratiques en matière de Data Governance, sécurité et conformité 3. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective…) Favoriser une culture d’amélioration continue et de collaboration 4. Communication et gestion des parties prenantes Assurer une communication fluide entre les équipes internes, les clients et les partenaires Préparer et animer les comités de pilotage et de suivi Gérer les attentes clients et accompagner les évolutions des projets 5. Optimisation des processus Identifier les axes d’amélioration des processus de delivery Mettre en place des actions d’optimisation et d’automatisation Améliorer l’efficacité opérationnelle des équipes
Offre d'alternance
Alternance Design (H/F)
Amiltone
Publiée le
Design
12 mois
10k-20k €
Villeurbanne, Auvergne-Rhône-Alpes
Vos missions ? En tant qu'alternant designer (H/F) vous assurerez les missions suivantes : - Participer à la définition des nouvelles fonctionnalités ou évolutions des existantes ; - Définir et réaliser les parcours utilisateurs et les maquettes ; - S'assurer de la viabilité des éléments imaginés en les testant ; - Être en lien avec les développeurs pour assurer le transfert des spécifications et la qualité du résultat final. - Assurer une veille active des meilleures pratiques d'UX/UI. - Maquettage sur Figma (Design UI) - Prototypage La Stack technique : - Figma - Portfolio avec vos réalisations
Mission freelance
AMOA Data Gouvernance
SMARTPOINT
Publiée le
KPI
1 an
Saint-Denis, Île-de-France
Mettre en place une organisation autour de la gestion de la donnée pour en garantir la qualité et sa bonne valorisation tout en suivant les règles de l’art en termes de data gouvernance (organisationnelle, technique, juridique etc) et d’application de la politique du Groupe sur ce périmètre. Le responsable doit comprendre les enjeux métier des données ainsi que les contraintes opérationnelles autour de ce domaine afin de déployer cette organisation chez DRC. Description détaillée des tâches qui constituent la mission: Le Responsable « Data Gouvernance » intervient plus spécifiquement sur trois missions principales : Définition d’une stratégie de gouvernance de la donnée: a. Réalisation d’un état des lieux b. Identification et catégorisation des différents périmètres de données à adresser c. Priorisation des actions à mener d. Définition d’une organisation et outils nécessaires à une gouvernance optimale des données e. Garantir la bonne sécurisation des données f. Garantir la bonne application de la politique Data SNCF pour DRC g. Garantir la conformité juridique de nos données Garantir la qualité des données: a. Mise en place de l’organisation, outils et KPI de suivi issus de la stratégie afin de garantir la qualité de la donnée b. Suivre opérationnellement les indicateurs de qualité de la donnée et mettre en place des actions de correction des données si besoin Valorisation de la donnée: a. Être le point d’entrée des métiers DRC (offres, exploitations, relations clients etc) pour répondre à des besoins via l’exploitations de la donnée b. Réalisation d ‘étude ad hoc en fonction des besoins métiers c. Etre force de proposition pour valoriser nos données via de nouvelles pratiques ou outils d. Préparer nos bases de données pour l’intégration de cas d’usage nécessitant des IA génératives
Offre d'emploi
Data scientist - (H/F)
CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python
2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Offre d'emploi
Data Ingenieur Python
CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python
3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Offre d'emploi
Ingénieur Data & API (H/F)
SYAGE
Publiée le
Apache Kafka
API REST
GraphQL
Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
Mission freelance
Chef de projet Data & Digital H/F
Karma Partners
Publiée le
AWS Cloud
Azure
CMS
6 mois
400-630 €
Île-de-France, France
Au sein de l’équipe On Site Services de la Digital Factory, le chef de projet Data/Digital porte la relation privilégiée entre les équipes digitales et data. Il assure et coordonne la mise en œuvre des projets digitaux dans le respect des bonnes pratiques d’une entreprise datacentrique (identification et rationalisation des sources, réflexion autour des Core Data Model, cohérence et monitoring des flux, contribution à la mise en qualité des données...) tout en veillant à intégrer les enjeux légaux et de sécurité. Il travaillera notamment les sujets de stratégie d’exposition des données, d’intégration des données dans les applications tierce et de Gouvernance Data / Digital. Projet et Solutioning · Prendre en charge et suivre les projets B2B d’exposition et consolidation des données clients en lien avec les consommations et parcours de leurs convives · Contribuer à l’alimentation des roadmaps éditeurs en charge de systèmes d’encaissement au travers des demandes issues des interlocuteurs métier (amont) et chefs de projet déploiement (aval). · Gérer les des activités de conception, d'évolution et de maintenance corrective des applications dont il a la charge, · Oeuvrer à l’amélioration continue du niveau d'industrialisation du déploiement des solutions et du niveau de supervision du parc. Se positionner en référent technico/fonctionnel des systèmes d'encaissement vis-à-vis de ses pairs (architecte, delivery lead, product owner) et garantir la bonne intégration des outils au sein du SI Comitologie · Porter et animer la gouvernance projet (copil et coproj) avec les éditeurs · Porter la relation avec les équipes connexes à la Digital Factory (notamment sécurité et data) et identifier / gérer les impacts dans le cadre des projets et du run · Porter la relation avec les équipes légales et achats pour poser les bases/faire évoluer les contrats éditeur · Identifier/mitiger ou escalader les risques inhérents aux projets
Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)
NSI France
Publiée le
Azure
Cloud
Data Engineering
6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
Offre d'emploi
Analyste SOC H/F
Le Groupe SYD
Publiée le
Réseaux
12 mois
30k-33k €
320-370 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Analyste SOC H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : À définir selon l’organisation 📝 Contrat : Freelance 👉 Contexte client : Tu rejoins un grand acteur national du secteur des services et de la banque , au sein d’un centre opérationnel de sécurité (SOC) dédié à la supervision 24/7 des infrastructures critiques. L’environnement est complexe, fortement sécurisé et multi‑technologies , couvrant des périmètres Réseaux, Sécurité, Systèmes et Services applicatifs. L’enjeu principal est d’assurer la détection, l’analyse et le traitement des incidents de sécurité , tout en garantissant la continuité de service. En tant qu’ Analyste SOC , tu interviens dans un contexte de supervision continue et tu auras pour missions de : Assurer la supervision 24/7 des infrastructures Sécurité, Réseaux, Systèmes et Applicatives . Analyser les événements de sécurité : diagnostic, évaluation des impacts et qualification avant ouverture d’incident. Qualifier, traiter et résoudre les incidents de sécurité de niveau 1 , en lien avec les opérateurs et équipes de maintenance. Appliquer les procédures et schémas d’escalade en fonction de la criticité des alertes. Réaliser des opérations réseaux et services en heures ouvrées et assurer les interventions N1 en HNO . Participer à la prise d’appels utilisateurs en cas de débordement du centre d’appels. Contribuer à la mise en œuvre et au maintien des Plans de Reprise d’Activité (PRA) dans un contexte 24/7. 🧰 Stack technique : Réseaux, Sécurité, supervision 24/7, gestion d’incidents, processus ITIL, infrastructures réseaux et systèmes, environnements de sécurité
Mission freelance
Data Engineer GCP Airflow (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Mission freelance
Directeur de Projet - Mainframe
CONCRETIO SERVICES
Publiée le
COBOL
Data management
12 mois
400-600 €
Gironde, France
Dans le cadre de la transformation de son système d'information, notre client — grand compte — recherche un Directeur de Projet expérimenté pour piloter en transverse le domaine Référentiel (Tiers, Contrats, Produits). Le prestataire intégrera la DSI et assurera un rôle stratégique à l'interface des équipes métiers, des architectes et des équipes de delivery, dans un contexte de modernisation d'un patrimoine applicatif legacy significatif. Missions principales Structurer et piloter les actions du schéma directeur du domaine Référentiel Sécuriser les décisions d' urbanisation autour des objets métiers clés (Tiers, Contrats, Produits) Piloter les études d'opportunité et de faisabilité en lien avec les enjeux de modernisation Piloter les contributions DSI aux études conduites par la MOA Expérimenter un POC IA appliqué à l'analyse d'impact et à la rétro-documentation (LLM, RAG, extraction de connaissance) Assurer le reporting et la gouvernance auprès des instances DSI et métiers Organiser et coordonner le projet de migration du patrimoine Référentiel Piloter le plan de gestion de la dette technique sur le périmètre des ID, en soutien des managers Environnement technique SI legacy : applications COBOL , CICS / DB2 / MQSeries SI distribués et architectures hybrides Enjeux MDM / Data Management Architecture d'entreprise et urbanisation du SI Expérimentation IA générative (LLM, RAG, knowledge extraction)
Offre d'emploi
Développeur Python Data (H/F)
DATACORP
Publiée le
40k-45k €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data, vous intervenez sur : La mise à jour et la gestion de données (process existants ou à documenter) La maintenance évolutive et corrective des applications Le développement de nouvelles fonctionnalités La collaboration étroite avec les équipes internes (daily, sessions de travail) ️ Stack technique Obligatoire : Python 3.x (maîtrise avancée) Pandas SQL (SQL Server / requêtes avancées) Apprécié : FastAPI Django Pydantic Environnement : GitHub VS Code Profil recherché Minimum 2 ans d’expérience en développement Python orienté Data Solide expérience en manipulation et analyse de données Français courant obligatoire Qualités attendues Autonomie Rigueur Fiabilité Adaptabilité Organisation Collaboration quotidienne avec les équipes Environnement structuré avec échanges réguliers
Offre d'emploi
Architecte Solution Data
CHARLI GROUP
Publiée le
Exadata
IBM DataStage
Java
Paris, France
Avec la livraison récente de la toute nouvelle Data Factory, qui consiste en un datawharehouse transversal à l’entreprise ainsi qu’une multitude de services et clients associés, en production ou en devenir Compétences clefs : • Maitrise des technologies data plateformes avec un atout majeur sur les solutions IBM (ETL Datastage PX) • Modélisation des données, data linéage, Data qualité… • Vision : capacité à prendre de la hauteur et référent/garant sur les choix d’architecture • Capacité d’influencer les choix d’architecture et traduire les besoins métier en choix d’architecture fonctionnelle et technique • Faciliter et accompagner les équipes de dev dans le cycle de développement.
Offre d'emploi
Data Steward
DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL
24 mois
45k-55k €
400-550 €
Paris, France
Contexte Intervention au sein d’une équipe Data/Gouvernance, avec des enjeux forts autour de la qualité de la donnée , de la conformité et de la fiabilisation des référentiels métiers . Missions principales Assurer la qualité, la cohérence et la fiabilité des données Mettre en place et suivre les règles de gestion et de contrôle de la donnée Définir et maintenir le data catalog et les référentiels métiers Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts…) Identifier et analyser les anomalies de données Mettre en place des indicateurs de qualité (KPI Data Quality) Participer aux initiatives de gouvernance des données (politiques, standards, process) Accompagner les métiers dans la bonne utilisation des données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5458 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois