Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 722 résultats.
Mission freelance
Data Product Manager en Data Lab - Rennes
Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Mission freelance
Deep Learning Scientist
VISIAN
Publiée le
IA
2 ans
400-550 €
Île-de-France, France
Contexte L'équipe AI Contrôle Non Destructif travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes les lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. La mission sera d'une durée minimale de 6 mois. Compétences requises Vous avez suivi une formation en Software Engineering, en machine learning, en vision par ordinateur ou dans un domaine similaire. Vous disposez d'au moins 4 ans d'expérience professionnelle en machine learning / deep learning. Vous avez une bonne compréhension des techniques de deep learning et les avez appliquées sur de l'image. Vous avez de bonnes compétences en programmation Python, en particulier pour de la mise en production. En termes de méthodologie de travail, vous avez une expérience en environnement agile, sans pour autant en défendre une application dogmatique. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat. Mission Analyse de données sur un projet d'aide au contrôle industriel : analyse de base de donnée, visualisation des images, identification des facteurs significatif. Développer, entraîner et tester les algorithmes d'IA ou de computer vision qui répondent à des besoins clients précis et spécifiques. Implémenter des briques algorithmiques avec un niveau de qualité élevé (module réutilisable, respect de nos guidelines de code). Participer à des réunions projet pour cadrer le besoin client, présenter les résultats de l'algorithme et expliquer les solutions développées. Rédaction de rapport technique.
Mission freelance
Data Product Manager
Focustribes
Publiée le
SQL
6 mois
500-600 €
Rennes, Bretagne
Dans le cadre du renforcement de son Data Lab , un grand groupe souhaite s’appuyer sur un Data Product Manager freelance afin d’accompagner la conception, le cadrage et la mise en œuvre de produits data à forte valeur métier. La mission s’inscrit dans un environnement data transverse et innovant , couvrant des sujets variés tels que la Data Science, la modélisation de données, les tableaux de bord décisionnels, l’IA générative et l’automatisation de processus métier . L’enjeu central de la mission consiste à jouer un rôle pivot entre les métiers et les équipes techniques , en traduisant des besoins business parfois complexes en solutions data concrètes, rapidement testables et industrialisables. Le poste dépasse le simple pilotage de planning : il requiert une compréhension fine des problématiques data et techniques , ainsi qu’une capacité à contribuer opérationnellement aux livrables. Responsabilités Cadrage & spécifications (cœur de mission) Recueillir et analyser les besoins métiers, puis les traduire en spécifications fonctionnelles claires et structurées . Rédiger les spécifications techniques à destination des équipes Data (modélisation, règles de gestion, hypothèses de calcul). S’assurer de la viabilité technique des demandes au regard de la stack data existante. Pilotage & contribution opérationnelle Gérer et prioriser le backlog produit en fonction de la valeur business. Travailler en mode itératif / MVP , avec une logique de test rapide et d’amélioration continue. Réaliser les recettes fonctionnelles et techniques , notamment via des requêtes SQL pour valider les livrables avant restitution aux métiers. Prototyper des dashboards simples afin de matérialiser rapidement les usages. Participer activement à la structuration et à l’amélioration des pratiques du Data Lab .
Mission freelance
Chef de projet spécialisé en comptabilité - Finance
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
Roissy-en-France, Île-de-France
Dans le cadre de la réorganisation du département comptable et du renforcement d'un pôle projets , nous recherchons un(e) Chef(fe) de Projet Comptable disposant d'une solide culture Finance/Comptabilité et d'une exposition confirmée à SAP (FI/CO apprécié). La mission vise à piloter des projets comptables et transverses , structurer/optimiser les processus métier et accompagner les équipes dans la transformation (outils, méthodes, adoption). Missions principales1) Pilotage & coordination de projets Cadrer les besoins (objectifs, périmètres, livrables, planning, budget/ressources). Animer la gouvernance ( COPROJ/COPIL ), orchestrer les parties prenantes (Finance, IT, métiers). Gérer risques/dépendances, arbitrer les priorités, tenir le reporting d'avancement . 2) Analyse de processus & modélisation Auditer et cartographier les processus comptables/finance ( R2R , P2P , O2C , facturation). Animer des ateliers de conception cible (As‑Is → To‑Be), formaliser règles de gestion . Contribuer aux choix outillés et à l'alignement Métier-IT . 3) Support fonctionnel SAP & validation Définir la stratégie de tests (SIT/UAT), rédiger cas/scénarios et jeux de données. Participer à l' exécution UAT , analyser les écarts, suivre corrections & qualimétrie . Appuyer les phases cutover , migration de données et stabilisation post go‑live . 4) Conduite du changement & formation Définir la stratégie d'accompagnement (impacts, plan de com, sponsors, réseaux d'ambassadeurs). Concevoir des supports pédagogiques (guides, e‑learning, quick refs), former les utilisateurs. Piloter l' adoption (KPI, feedbacks, actions correctives). Livrables attendus Expressions de besoins , spécifications fonctionnelles (SFG/SFD), règles de gestion . Cartographies As‑Is / To‑Be, matrices d'impacts & de responsabilités (RACI). Stratégie de tests , plans & cas UAT , jeux de données, PV de validation . Supports de formation , kits de communication, CR d'ateliers/sessions . Reporting projet (avancement, risques, dépendances, planning), RAID log . Profil recherchéCompétences techniques SAP : expérience fonctionnelle en environnement Finance/Comptabilité ( FI/CO apprécié). Gestion de projet : méthodes, gouvernance, risk management, planification outillée. Process & modélisation : audit, cartographie ( BPMN/Visio/Miro ), formalisation claire. Tests/Recette : stratégie UAT, cas & critères d'acceptation, suivi des défauts (Jira/Xray/Zephyr/HP ALM). Intérêt pour les outils digitaux et automatisation/IA (Power BI, RPA, etc.) ; culture data bienvenue. Soft skills Leadership et pilotage transversal ; excellente communication écrite/orale. Rigueur , sens de l'organisation, autonomie, esprit de synthèse . Capacité à challenger avec diplomatie ; orientation résultats . Anglais : (échanges internationaux).
Offre d'emploi
Chef de Projet / PMO (H/F)
SCALIAN DS
Publiée le
Informatica
36 mois
43k-53k €
400-430 €
74000, Annecy, Auvergne-Rhône-Alpes
Dans le TOP 10 des Sociétés de Conseil en Ingénierie en France , le Groupe SCALIAN intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence artificielle dans des secteurs d’activité aussi variés que l’aéronautique, le spatial, l’automobile, le ferroviaire, les services, le luxe ou le retail etc. Créée en 1989, SCALIAN compte aujourd’hui plus de 5500 collaborateurs répartis dans 11 pays et 15 implantations en France pour un chiffre d’affaires de 550 millions d’euros. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait. Labellisée Great Place to Work, SCALIAN connait une croissance de 20% chaque année. Pourquoi SCALIAN ? Parce que Scalian vous accompagne dans le développement de votre carrière : programme d'onboarding complet sur 1 an avec votre manager et votre RH, programmes de formation personnalisés, communautés techniques, événements internes Parce que Scalian favorise la Qualité de Vie au Travail : certifications Great Place to Work® et Best Workplaces for Women, prime de cooptation, prime vacances, accord télétravail Parce que Scalian développe une politique RSE concrète et ambitieuse : mobilité durable, actions environnementales, actions handicap (accord agréé, processus de recrutement inclusif, formation des managers et des recruteurs, mission handicap avec temps dédié : )
Offre d'emploi
DSI externalisé- temps partiel
KEONI CONSULTING
Publiée le
IPBX (Internet Protocol Branch eXchange)
KPI
SLA
18 mois
20k-60k €
100-600 €
Paris, France
Contexte Le client souhaite externaliser la mission de Direction des Systèmes d’Information. Cette mission permettra de l’accompagner dans l’alignement des technologies de l’information avec ses enjeux stratégiques, tout en assurant une gouvernance efficace et conforme aux exigences réglementaires. Les processus IT actuels nécessitent un alignement renforcé avec des priorités stratégiques et opérationnelles. Une optimisation des infrastructures et application IT est essentielle pour mieux répondre aux besoins métier et anticiper la croissance des activités. La gestion des risques liés à la cybersécurité, ainsi que la conformité réglementaire (notamment RGPD), doivent être renforcée pour protéger des donnés et la réputation de l’Etablissement Le DSI externalisé interviendra sur les axes suivants : Strategie IT o Mise en place d'un schéma directeur informatique o Elaboration et mise en oeuvre d'une roadmap stratégique alignée sur les priorités du client. o Identification des projets SI critiques et définition des priorités en fonction des besoins métier. Prévoir notamment : § Une réflexion sur la refonte du SI actuel (base sur Excel) § Une réflexion sur la mise en place d'une GED (workflow. circuits de validation,...) Pilotage des projets IT o Coordination des projets clés (ex. migrations vers le cloud, intégration d'applications, automatisation des processus, virtualisation de poste de travail) - coordination numérique. o Suivi des délais, budgets, et objectifs des projets, avec reporting structure pour le comité de direction. Pilotage du parc informatique o La poursuite des inventaires matériels et logiciels sur la base de l'audit initial o L'organisation des achats, le remplacement et le décommissionnement de ressources aussi bien matérielles que logicielles (gestion des stocks, mise au rebus, don aux association, recyclage, revente. etc.) Couvrir les besoins en matériel informatique et assurer son optimisation o La mise en place de projet de marches-cadre en lien avec la Direction et la Responsable qualité et contrôle de gestion du client Pilotage et suivi des contrats en cours - services externalises (renouvellements, mise en place de nouvelles consultations) o Hébergement et développement du site internet. . o Sauvegarde des données M365 (OneDrive d'entreprise + OneDrive collaborateurs) Pilotage de l'infogérance externalisée o Etat des lieux des champs couverts par l'infogérance, assurée par un prestataire externe o Evaluation des niveaux de service (SLA), tels que les temps de réponse, la disponibilité, etc. o Proposition d'amélioration et d'extension de périmètre en termes d'infogérance ou de contrat de maintenance (hébergement de serveur, VOIP/IPBX/postes téléphoniques, bornes WIFI, maintenance onduleur, logiciels métier, supervision et monitoring des sauvegardes Microsoft M365 Optimisation budgétaire o Réalisation d'un diagnostic des couts IT actuels. o Proposition de mesures concrètes pour réduire les dépenses inutiles et maximiser le retour sur investissement des initiatives numériques. o Tendre vers des achats groupes Support a la décision o Préparation de synthèses stratégiques (ex. analyse cout-bénéfice, études de faisabilité) pour éclairer les décisions du comité de direction. o Evaluation des opportunités d'innovation, comme l'intégration de solutions basées sur l'intelligence artificielle. Collaboration avec le RSSI o Mise en place d'une gouvernance commune avec le RSSI pour garantir une couverture complète des enjeux de sécurité. o Supervision des initiatives en cybersécurité, en veillant à leur cohérence avec les projets SI. Collaboration avec le DPO o Coordonner les remontées d'informations règlementaires au niveau du DPO. o Veillez à ce que le DPO reste impartial et autonome sur ses missions. Livrables attendus o Plan stratégique annuel : Document détaillant la vision à long terme pour les systèmes d'information. o Rapport trimestriel : Bilan des actions réalisées, projets en cours, et recommandations stratégiques pour le trimestre suivant. Rapports intermédiaires lors d'évènements ou de changements significatifs. o Tableau de bord : Suivi des indicateurs clés de performance (KPI) relatifs aux projets, couts et objectifs IT. o inventaire à jour du matériel et des logiciels.
Offre d'emploi
QA Manager (H/F)
CITECH
Publiée le
QA
Test fonctionnel
Test unitaire
6 mois
50k-60k €
450-550 €
75000, Paris, Île-de-France
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de la culture et du loisir ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) QA Manager (H/F) pour rejoindre l’équipe Digitale & Tech et jouer un rôle clé au sein du groupe. 👈 Description du poste 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Management & organisation QA Encadrer, animer et faire monter en compétences une équipe QA d’environ 15 personnes (fonctionnels & automaticiens). Planifier l’activité, prioriser les sujets et garantir une exécution fluide des tests. Participer aux rituels QA (chapters, guildes) et diffuser les bonnes pratiques avec le centre d’expertise QA. 🔸 Stratégie et pilotage des tests Définir et déployer la stratégie de test e-commerce. Garantir la qualité des plans de test, critères d’acceptation et campagnes de tests (Smoke, Sanity, TNR). Mettre en place et suivre les tests E2E transverses. Être responsable des décisions GO / NO GO et de la recette. 🔸 Exécution & qualité produit Superviser les tests fonctionnels et non fonctionnels (performance, sécurité, accessibilité). Piloter le cycle de vie des anomalies (détection, priorisation, suivi, résolution). Développer et sécuriser l’automatisation des tests. 🔸 Amélioration continue & communication Mettre en place et suivre des KPI qualité (white box & black box). Participer aux rétrospectives et proposer des améliorations continues. Communiquer sur l’avancement et valoriser l’activité QA via reportings et présentations. 🔸 Veille & innovation Assurer une veille active sur les outils, méthodes QA et usages de l’IA appliquée aux tests. Recommander des évolutions alignées avec la stratégie QA globale.
Mission freelance
Leader Technique H/F
Karma Partners
Publiée le
Azure
CI/CD
Python
6 mois
400-550 €
Guyancourt, Île-de-France
Votre poste est hautement technique et vise à apporter de la valeur ajoutée à l'entreprise, car vous travaillerez au sein d'une organisation axée sur les produits Dès votre arrivée, vous participerez activement aux activités d'ingénierie, avec pour objectif de fournir des produits numériques et de données aux entreprises. En étroite collaboration avec le directeur de l'ingénierie, les chefs de produit, les responsables, les responsables techniques et l'ensemble des développeurs (front-end, back-end, full stack, ingénieurs de données, data scientists, MLE, SRE), vous jouerez un rôle essentiel dans la conception et la livraison de produits numériques et de données performants. En collaboration avec d'autres responsables de l'ingénierie, vous serez à l'avant-garde, veillant à ce que chaque produit fonctionne parfaitement. Ce poste implique de multiples activités. Vous mettrez à profit vos compétences en leadership, en gestion et en pilotage technique au sein d'une usine numérique et d'IA afin de garantir un haut niveau de livraison pour les données et les produits numériques, d'un point de vue fonctionnel et technique. Assurer l'alignement technique avec les parties prenantes produit et métier • Comprendre le contexte métier et produit, les objectifs et les défis des principales parties prenantes du domaine • Collaborer avec les autres responsables d'ingénierie et le pilotage technique, en permettant aux équipes IT (plateformes, sécurité, cloud) de garantir le succès de la livraison et la cohérence globale des produits • Gérer la livraison rapide de ressources techniques de haute qualité • Garantir la livraison correcte, rapide et de qualité des artefacts de code (architecture, code, pipelines de données, CI/CD). • Améliorer continuellement la qualité du travail effectué et rehausser les standards de développement. • S'assurer que chaque problème est traité au niveau approprié (individuel, équipe, système) avec la priorité adéquate. • Synchroniser les ingénieurs logiciels de différentes équipes techniques travaillant dans le même domaine d'activité. Développer une équipe d'experts performante. • Maintenir des équipes épanouies et motivées qui trouvent du sens à leur travail. • Se soucier du bien-être de chacun et les accompagner dans leur progression de carrière. • Assurer la montée en compétences continue des équipes en suivant les meilleures pratiques et les tendances technologiques. • S'assurer que les équipes sont bien intégrées, formées et équipées pour livrer efficacement. Être un leader technique : • 70 % opérationnel, responsable des choix techniques, architecte technique et contributeur actif au code source. • 30 % d'accompagnement, en collaboration avec les responsables techniques et les développeurs, pour les orienter, les coacher et les aider à relever les défis techniques et à adopter une attitude professionnelle. • Participer activement à la diffusion de la culture technique , lors d'événements internes et externes. Recruter des ingénieurs logiciels : • Participer activement au recrutement et à la gestion des effectifs. RH et partenaires externes
Offre d'emploi
Expert Technique DevOps
VISIAN
Publiée le
Ansible
Dynatrace
1 an
40k-45k €
400-500 €
Île-de-France, France
Descriptif du poste Le périmètre d'expertise porte sur les technologies Open (Linux, WebSphere, CFT, MQ, Oracle, autosys…), le monitoring (expertise sur Dynatrace) ainsi que le DevOps (Cloud, CI/CD, etc...). Une part d'activité pourrait porter sur l'utilisation de l'IA comme facteur de gain de productivité sur les activités de Production. La mission demandera la participation aux projets techniques transverses à l'APS, participation technique qui demande une expertise ainsi qu'un suivi de bout en bout des projets confiés. Certains projets pourront demander de coordonner plusieurs acteurs (Migration d'outils de backup/restore, migration d'outils groupe, migration vers un nouveau type de cloud, changement d'outil de CD, projets de mise en conformité cyber ou dans le cadre de DORA, amélioration de la qualité de la production, etc…). Compétences techniques requises Une expérience forte est attendue sur la partie technique. Les technologies mises en œuvre incluent : Cloud IBM VM Linux (80%) / Windows Kubernetes, Openshift, Docker, HashicorpVault, Terraform, Sysdig, Helm, etc... CFT, MQ Series Ordonnanceur : Autosys Oracle (Exadata, ExaCC, ..), SQL Server, PostgreSQL, MongoDB, Cassandra Kafka, Zookeeper, ElasticSearch, etc... Dynatrace, Kibana, Grafana ArgoCD, Ansible Tower, Digital.ai Release GitlabCI, Jenkins, Ansible, etc... Missions attendues Expertise et support aux OPS sur les différentes technologies utilisées (Autosys, Cloud public IBM, Oracle, RHEL, Windows server, Websphere, Kafka, Flink, Cassandra, HADOOP, MQ, CFT, Kubernetes, Docker, Terraform, Helm) Expertise et support sur le monitoring applicatif (Dynatrace, Kibana, ElasticSearch, Grafana) Amélioration de l'exploitation, amélioration de la qualité de la production Réalisation des opérations techniques pour mettre en œuvre des projets, évolutions, corrections et incidents, en respectant les règles et standards en vigueur Connaissance des contraintes d'architecture techniques et sécurité (volet OPS / Infra) Prise en charge de projets de bout en bout (étude + réalisation) en lien avec les équipes OPS et équipes DEV
Mission freelance
Consultant(e) IDMP & Gouvernance des Données
Signe +
Publiée le
autonomie
12 mois
400-630 €
Paris, France
Contexte et objectifs de la mission : Dans le cadre du renforcement de la gouvernance des données R&D et de la mise en conformité réglementaire, le département Digital, Data & IA souhaite renforcer son dispositif autour de l’IDMP (Identification of Medicinal Products). La mission vise à structurer, déployer et opérationnaliser un modèle de gouvernance IDMP cohérent, pérenne et aligné avec les exigences réglementaires, tout en assurant l’adhésion des parties prenantes métiers, data, IT et réglementaires. Missions principales Mettre en œuvre le modèle opérationnel de gouvernance IDMP au sein de la R&D. Définir et formaliser la stratégie de déploiement IDMP à l’échelle de l’entreprise. Structurer, harmoniser et fiabiliser les données requises par les standards et exigences IDMP. Contribuer à la définition ou à l’amélioration des processus de gouvernance des données (rôles, responsabilités, workflows, contrôles). Accompagner la conduite du changement auprès des équipes concernées (sensibilisation, pédagogie, adoption des pratiques). Faciliter la coordination et l’alignement entre les équipes métiers, data, IT et réglementaires. Participer à l’identification et à la mise en œuvre des meilleures pratiques en matière de data gouvernance et conformité réglementaire. Profil recherché Formation Bac +5 minimum en sciences pharmaceutiques, data management, informatique ou équivalent. 5 à 10 ans d’expérience dans l’industrie pharmaceutique ou dans un environnement fortement réglementé. Expérience avérée dans le déploiement ou l’opérationnalisation d’un modèle de gouvernance des données (atout majeur). Expérience significative en conduite du changement (atout majeur). Connaissance approfondie des standards et exigences IDMP. Très bonne maîtrise de l’anglais professionnel (écrit et oral). Localisation selon les modalités définies par l’entreprise (présentiel / hybride / télétravail selon contexte). Compétences comportementales Excellentes compétences interpersonnelles, sens de la diplomatie et de la communication transverse. Forte capacité de pédagogie et de vulgarisation de sujets data complexes. Ténacité, persévérance et autonomie dans des environnements exigeants. Rigueur, sens de l’organisation et capacité d’adaptation. Aisance dans des contextes multipartites et matriciels.
Offre d'emploi
Observability Expert
Ela Technology
Publiée le
Azure
Grafana
3 ans
40k-65k €
400-660 €
Paris, France
I. Contexte : Notre département IT souhaite mettre en place et animer une Communauté de Pratique dédiée à l’observabilité et à la supervision de nos applications métiers. En tant qu’expert Observabilité/Supervision, vous serez chargé de définir et mettre en œuvre une stratégie d’observabilité complète (monitoring, logs, alerting, tracing) afin de garantir une visibilité en temps réel sur l’état de santé, les performances et le comportement de nos applications. Ces solutions permettront une détection proactive des incidents, un diagnostic rapide des problèmes et assureront la disponibilité de nos services critiques. L’environnement applicatif est hybride, composé de solutions cloud (D365, Power Apps, services Azure, Data product Fabric) et d’applications hébergées on-premise sur serveurs Windows (sites web, serveurs IIS, etc.). II. Missions : · Référent technique pour contribuer à la construction et à l’implémentation des composants de supervision et des pipelines d’observabilité · Fournir une expertise et, si nécessaire, participer à la conception, l’intégration et le déploiement des solutions de supervision (dashboards, collecte de logs, tracing, détection d’anomalies basée sur l’IA, etc.) · Collaborer avec les équipes de développement, d’exploitation et de sécurité pour intégrer les outils et pratiques d’observabilité dans les pipelines CI/CD · Apporter son expertise lors des incidents et des analyses de causes racines. · Identifier les besoins spécifiques de chaque équipe et définir des plans d’accompagnement. · Développer et maintenir des tableaux de bord et rapports pour visualiser les performances applicatives · Analyser et interpréter les métriques pour identifier les tendances et détecter les problèmes de manière proactive · Définir la gouvernance, les règles de fonctionnement et les objectifs de la Communauté. · Mettre en place des outils collaboratifs (wiki, canaux Teams) · Organiser et animer des sessions de la communauté · Favoriser les échanges inter-équipes et le partage de connaissances · Co-construire des standards techniques et des guidelines avec les équipes · Rédiger des guides de bonnes pratiques et de la documentation technique · Assurer une veille active sur les technologies et pratiques d’observabilité · Évaluer et tester de nouveaux outils du marché · Proposer des POC et des expérimentations innovantes.
Mission freelance
Profile LOOKER LOOKML Anglais
SEDONA SVP
Publiée le
Looker Studio
1 an
400-600 €
Clichy, Île-de-France
En tant que Senior Analytics Engineer , vous rejoindrez l’équipe de transformation financière du groupe afin de piloter le développement de la « dernière étape » des produits data. Il s’agit d’un poste hautement technique, orienté développement, conçu pour un expert qui considère la donnée comme du code. Vous serez responsable de transformer des conceptions financières complexes, définies par les Business Product Owners, en produits performants, scalables et sécurisés. Vous évoluerez dans un environnement multi-projets, nécessitant une grande rigueur technique ainsi qu’une capacité à communiquer efficacement avec les équipes data engineering et les parties prenantes métiers dans un contexte corporate finance à l’échelle du groupe. Vous n’êtes pas simplement une personne « data » qui construit des dashboards : vous êtes un Software Engineer dont l’application principale est la donnée. Responsabilités principales Analytics Engineering avancé : Construire et optimiser la couche sémantique en utilisant LookML à un niveau expert. Concevoir des modèles BigQuery comme sources de données Looker en appliquant les principes du Software Engineering : modularité, réutilisabilité et maintenabilité. Exécution & qualité : Transformer les spécifications en produits data robustes, garantissant des performances élevées, une optimisation des coûts et le respect des meilleures pratiques architecturales à long terme. Solutions embarquées & API : Concevoir l’intégration de Looker dans des applications web via les API/SDK Looker, en faisant le lien entre la donnée et des interfaces UI personnalisées. Sécurité & gouvernance : Comprendre les protocoles et concepts de sécurité (RLS, OLS, mapping des attributs utilisateurs) afin de traiter des données financières sensibles sur différents périmètres. Gestion multi-projets : Piloter plusieurs flux de travail simultanément en assurant des livraisons dans les délais et une communication proactive sur les blocages techniques ou choix architecturaux. Expérience Full-Stack (bonus) : Supporter le modèle « Analytics-as-a-Service » en utilisant Python pour la logique backend et React/HTML/CSS pour des expériences analytiques front-end sur mesure. Philosophie “Software First” : Comprendre le contrôle de version, ne pas seulement utiliser Git. Maîtriser les principes CI/CD, DRY, l’approche atomic design. Prioriser la maintenabilité plutôt que les « quick wins ». Savoir dire non aux solutions rapides mais non durables. Concevoir avec une vision long terme. Esprit innovant : Être un ambassadeur de l’IA et améliorer l’efficacité. Utiliser de manière proactive des outils GenAI (ex : Claude Code/Gemini, Copilot) pour accélérer l’écriture de code, l’optimisation SQL et la documentation automatisée, tout en gardant à l’esprit comment les LLMs pourront être intégrés dans les futurs produits data. Profil et compétences requises Formation : Diplôme de niveau Master en informatique, Data Engineering ou domaine technique équivalent. Une base solide orientée développement est indispensable. Expérience professionnelle : Minimum 5 ans d’expérience en Analytics Engineering ou Data Development, idéalement dans des environnements grands groupes avec des écosystèmes data complexes. Stack technique principal Looker : Maîtrise experte de LookML (approche modulaire via refinements et extends), connaissance des API Looker, maîtrise des architectures sémantiques. GCP / BigQuery : Expertise SQL avancée, optimisation performance/coûts et principes de modélisation des données. Les “plus” Développement web : Bonne maîtrise de Python et React fortement appréciée. Des bases solides en HTML/CSS sont requises pour des dashboards personnalisés et intégrations web. PowerBI : Expérience PowerBI est un atout important. Soft skills Communication : Capacité à expliquer des concepts techniques à des partenaires métiers en anglais et en français. Autonomie : Excellentes compétences en gestion du temps pour mener plusieurs projets et gérer différents interlocuteurs. Exigence qualité : Approche rigoureuse sur Git, les tests et la documentation. Présence & collaboration Localisation : Poste basé à Clichy. Rythme hybride : 3 jours par semaine sur site afin d’assurer une collaboration étroite avec les équipes métier ainsi que l’équipe centrale Analytics & AI Engineering.
Offre d'emploi
Ingénieur DATA
INFOGENE
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Offre d'emploi
ARCHITECTE SOLUTION DATA
Inventiv IT
Publiée le
Architecture
AWS Cloud
Data visualisation
74k-82k €
Paris, France
Forte expertise d’architecture Big Data et Cloud. Au sein de la Data & IA Fabric, couvrant les missions d’étude, de conception, de réalisation et de maintenance du socle Data et des SI du périmètre, ainsi que l’accompagnement des métiers dans l’utilisation des différentes plateformes Data existantes ou en développement. Mission : concevoir et construire l’architecture fonctionnelle, logique, physique et opérationnelle des plateformes dans le cadre de la stratégie des socles Data (Plateformes Data). Assister les architectes solutions, devops et data ingénieurs des squads Plateformes dans leurs activités de BUILD et de RUN. Build EXEMPLE : Proposer des évolutions des briques socle, rédiger leur cadrage technique, voire même, selon le profil du consultant, contribuer directement à leur intégration et configuration. Participer à la priorisation des fonctionnalités dans les cadrages de versions des socles plateformes. Définir des normes de développement sur la plateforme Data Groupe. Participer à la validation de la stratégie de recette (TU, TI, TAU) applicables aux développements Plateforme d’un côté, et aux développements de la squad Projet de l’autre Assurer la gestion des risques techniques et de la réversibilité pour la platform Data et le Data Catalogue Groupe Run EXEMPLE : Positionner, superviser voire Contribuer au maintien en conditions opérationnels des plateformes Data et du Catalogue Groupe (maintenance corrective, préventive et évolutive) Support expert N3 Sous la responsabilité du Product Owner de la Plateforme Data Groupe Il s’appuiera sur une équipe complète de DevOps, Data Ingénieurs et des leads de pratique Data Management, Dataviz et ML Ingénierie, ainsi que sur un pool d’architectes dédiés. Expériences réussies d’au -moins 6 ans dans le conseil en architecture solution data Expérience d’au moins 3 ans comme data ingénieur, en vue de la création, l’orchestration et monitoring de flux de données, sur des clouds publics, de préférence AWS Une expertise de développement en langage Spark et Python, pendant au moins 3 ans, est requise afin de réaliser les code reviews Une expérience sur Databricks d’au moins 4 ans sur une plateforme. Une 1è certification Databricks officielle est requise Une expérience d’intégrateur, de mises en production avec les technologies : Terraform, ou Jenkins, Docker ou Kubernetes. Paris 12 – 3 jours de TT
Offre d'emploi
Tech Lead .NET / Python
LEVUP
Publiée le
.NET
Python
12 mois
Bruxelles, Bruxelles-Capitale, Belgique
Nous recherchons un Tech Lead .NET/Python pour intégrer une feature team end-to-end , totalement autonome, responsable de l’ensemble du cycle de vie applicatif. L’environnement est moderne, peu de legacy, avec de nombreux environnements de pré-production et une forte culture DevOps . Missions En tant que Tech Lead , vous interviendrez sur l’ensemble de la chaîne de valeur : Technique & Architecture Concevoir et faire évoluer l’architecture applicative et technique Être référent technique de la feature team Participer activement au design , au développement backend (90%), aux tests et aux releases Garantir la qualité du code (revues, bonnes pratiques, standards) Développement & Qualité Développement backend en .NET et Python Mise en place et maintien des tests unitaires , tests d’intégration et tests de régression Participation aux phases de release (possibilité de rôle de Release Manager ) DevOps & Infrastructure Gestion complète de l’infrastructure sur Azure Kubernetes Service (AKS) Administration et exploitation des clusters Kubernetes Mise en place et maintien des pipelines CI/CD Supervision et monitoring via Splunk Gestion des environnements (pré-prod, prod, etc.) Systèmes distribués Travail sur des architectures distribuées Utilisation de RabbitMQ et Kafka Gestion des bases de données MongoDB Support & Exploitation Participation au support applicatif 24/7 Astreintes ponctuelles (charge maîtrisée) Analyse et résolution d’incidents en production Fonctionnel & Collaboration Capacité à comprendre les besoins fonctionnels et métiers Une connaissance des marchés financiers est appréciée Interaction directe avec les parties prenantes (pas d’équipe de Business Analysts) Aller chercher l’information et proposer des solutions adaptées Être force de proposition et acteur du changement Profil recherchéCompétences techniques Expérience confirmée en tant que Développeur Backend , Tech Lead ou Architecte Très bonne maîtrise de .NET et/ou Python Solide expérience en Kubernetes / AKS Bonne connaissance des architectures distribuées Expérience avec RabbitMQ , Kafka , MongoDB Maîtrise des pratiques CI/CD , monitoring et observabilité Toute expérience en IA / AI est un plus Soft skills Très forte autonomie Profil hands-on , orienté action Capacité à prendre des décisions techniques Sens des responsabilités (ownership total) Bon niveau de communication Esprit pragmatique et orienté solution Environnement & Avantages Feature team 100 % autonome (end-to-end) Stack moderne et évolutive Nombreux environnements de pré-production Forte liberté technique Télétravail flexible (2 jours sur site)
Mission freelance
[FBO] Data Engineer Expert Elastic Search (5 années d'expérience) - Guyancourt - 1178
ISUPPLIER
Publiée le
5 mois
450-525 €
Guyancourt, Île-de-France
Confirmé (Au moins 5 ans d’expérience) Secteur : Bancaire La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l’organisation du client et de ses Clients (équipes applicatives et socles multiples et dispersées). Prenant en compte ce cadre, vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source) Attendus. Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux : collecte, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Mettre en œuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l’entreprise pour prise en compte des flux de données - Développer les cas d’usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Compétences requises - Connaissances en infrastructure : réseau / système - Connaissance indispensable en SGBD et langage de requêtage - Connaissance forte en streaming - Architecture d’Entreprise, plus particulièrement en base de données, flux de données - Conception et mise en place de solution de stockage et ingestion de données - Méthodologie Agile / DevOps, maitrise des outils associés - Gouvernance de la donnée - Maitrise de divers langages de programmation (Java/Python) - Anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
722 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois