L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 417 résultats.
Mission freelance
Expert Senior Google Workspace, Data & IA/Looker Studio / Big Query /GEMINI (H/F)
Octopus Group
Publiée le
BigQuery
Google Workspace
IA Générative
6 mois
570-750 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour le compte de notre client dans le secteur de l'assurance, un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analystics (Expertise Looker et BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation : Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel : Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement.
Offre d'emploi
Technicien Réseaux Télécom (F/H)
Experis France
Publiée le
Saint-Denis, Île-de-France
Experis recherche un Technicien Réseaux Télécom (F/H) pour intervenir au sein d'un client du secteur Télécom. Vous intégrerez une équipe dynamique. Le site est basé à Saint-Denis. Experis recherche un Technicien Réseaux Télécom (F/H) pour intervenir au sein d'un client du secteur Télécom. Vous intégrerez une équipe dynamique. Le site est basé à Saint-Denis. Missions principales Mise en service des routeurs en collaboration avec le technicien UI. Mise en service du LAN avec le client et le technicien client. Analyse et résolution des incidents rencontrés lors des migrations ou en post migration. Suivi des productions et gestion des demandes provenant des chefs de projet (CDP). Participation aux briefs techniques d'équipe pour suivre l'avancement et partager les points d'attention. Participation aux points réguliers avec les CDP, afin d'assurer la coordination globale des opérations. Remontée proactive des problématiques liées au client, aux environnements techniques ou au SI.
Offre d'emploi
Data Officer H/F
OBJECTWARE
Publiée le
Gestion de projet
Nantes, Pays de la Loire
Nous recherchons un Data Officer H/F. Vous couvrez les rôles de Conduite de projet Data (AMOA) et de Data Stewart. Vous coordonnez et mutualisez les énergies sur les projets Data et dans le cadre de la gouvernance et de l’administration des données. Missions : - analyse fonctionnelle des sujets - échanges avec MOA / MOE - gouvernance de la donnée (analyse des données, catalogue des données, connaissance de la donnée et sécurisation d’accès (droits et usage)) - organisation projet notamment de la qualification
Offre d'emploi
Business analyst / Data scientist IA gen (RAG)
PARTENOR
Publiée le
Data science
RAG
Rédaction des spécifications fonctionnelles
1 an
Paris, France
Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) business analyst confirmé avec une expérience en tant que data scientist sur des systèmes RAG. Vous travaillerez sur des sujets d'IA et d'IA générative et notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative RAG (Retrieval Augmented Generation). Vos missions principales : - Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists - Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées - Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration - Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme - Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets - Suivre la production afin de garantir la satisfaction du client
Offre d'emploi
Lead Data Engineer Dataiku & Python
OBJECTWARE
Publiée le
Dataiku
Python
3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Offre d'emploi
Expert Kubernetes H/F
Proxiad
Publiée le
CI/CD
Kubernetes
Réseaux
3 ans
Lille, Hauts-de-France
Contexte Nous recherchons un expert Kubernetes pour accompagner une équipe OPS dans la structuration et l’industrialisation d’une plateforme conteneurisée stratégique. L’objectif est clair : atteindre un niveau de maturité avancé en matière d’architecture, de sécurité et d’exploitation. Responsabilités Audit complet de l’architecture Kubernetes (distribution, CNI, stockage, sécurité) Challenge des choix techniques au regard des standards actuels Définition et optimisation des standards d’exploitation : RBAC & policies réseau gestion des ressources monitoring & observabilité backup & journalisation Identification des risques et optimisations (scalabilité, résilience, automatisation) Accompagnement opérationnel d’un OPS dédié Participation à un POC d’industrialisation (GitOps, CI/CD, autoscaling Stack cible Kubernetes, GitOps, CI/CD, Observabilité, Sécurité réseau, Architecture DataCentric.
Mission freelance
Experienced DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Data management
SQL
12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
Offre d'emploi
Administrateur Système, Sauvegarde et réseaux
Ela Technology
Publiée le
Administration linux
Administration Windows
Powershell
6 mois
40k-45k €
300-400 €
Lille, Hauts-de-France
L’Administrateur Infrastructures installe, met en production, administre et exploite les moyens informatiques d’un ou plusieurs sites informatiques - MCO / Middleware Maintien en condition opérationnelle de la Production : • Supervision de l’infrastructure et proactivité afin de limiter les impacts et les incidents • Résolution d’incidents • Mise en place de flux sur ordonnanceur • scripting (powershell , bat , shell ..) • Maintenir ou créer les procédures du service exploitation • Contribuer aux actions de patching OS/Middleware • Participer à l’astreinte logistique Maintenance et développement des infrastructures système : • Mesurer et optimiser les performances du système. • Prévenir, diagnostiquer et corriger les erreurs systèmes. • Transmettre et faire remonter les différentes informations et problèmes rencontrés (obsolescences, risques d’altération de la sécurité…). • Prendre en charge sur le plan technique les nouveaux projets système. • Participer aux travaux de paramétrage sur les nouveaux projets. Mise en place et administration des systèmes d’exploitation : • Administrer les systèmes d’exploitation (Windows, Linux, Aix…). • Assurer la traçabilité et l’exploitation des événements survenus au sein du système. • Réaliser un suivi des systèmes : contrôle des systèmes de sauvegarde, d’antivirus, des éléments de sécurité… • Assurer les mises à jour, mises hors service, et montées de version des serveurs en accord avec les règles définies par la Direction du Système d’Information concerné. • Assurer le patching en lien avec l’administrateur active directory.
Offre d'emploi
[Product Owner Réseaux] H/F
CONSORT GROUP
Publiée le
75017, Paris, Île-de-France
C’est votre mission Vous êtes passionné·e par le pilotage produit en environnement Agile à grande échelle ? Ce poste est fait pour vous. En tant que Product Owner , vous êtes responsable de la vision produit, de la roadmap et de la performance d’une équipe d’environ 18 personnes au sein d’un train Agile SAFe. Côté build : Définir et porter la stratégie du produit LAN DC IAC en cohérence avec les objectifs de la ligne de produits Construire et piloter la roadmap en priorisant les besoins métier et techniques Encadrer et accompagner une équipe d’environ 18 collaborateurs Contribuer au développement et à l’automatisation du produit Garantir la cohérence des solutions avec les autres équipes du train Agile Coanimer les cérémonies Agile avec le Scrum Master (backlog, sprint planning, démos, rétrospectives) Participer aux cérémonies du train Agile, notamment le PI Planning Côté run : Suivre les KPIs de qualité et de performance de l’équipe Assurer le pilotage du delivery client Veiller à la qualité de service et à la performance du RUN Coordonner les échanges avec les parties prenantes (équipes transverses, clients) Évoluer efficacement dans un environnement à forte pression et à forts enjeux C’est votre parcours Vous avez au moins 5 ans d’expérience en tant que Product Owner / Lead en environnement Agile/SAFe. Vous aimez piloter des produits complexes, fédérer des équipes et délivrer de la valeur en continu, sans jamais cesser d’innover. C’est votre expertise : Méthodologies Agile / Scrum / SAFe Jira & Confluence Environnement DevOps Pilotage de roadmap produit et gestion de backlog Suivi de KPIs et amélioration continue Connaissances en réseaux LAN / Datacenter (fort atout) C’est votre manière de faire équipe : Leadership et capacité à embarquer une équipe Excellente communication avec des interlocuteurs multiples Sens de la priorisation et de la prise de décision Orientation valeur et résultat Esprit collaboratif et transverse Résilience et gestion des environnements sous pression C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Orange Gardens – Châtillon Contrat : CDI Télétravail : Hybride selon mission Salaire : Selon expérience Famille métier : Réseaux / DevOps / Product Management
Mission freelance
Data Engineer - IA (Bordeaux)
Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT
12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Offre d'emploi
Analyste Sécurité F/H
AIS
Publiée le
1 mois
37k-38k €
190-380 €
Niort, Nouvelle-Aquitaine
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes vos missions seront les suivantes : - Administrer les briques de Sécurité du département (Infra As Code) - Sécuriser la Production : patching système (automatisation), gestion des vulnérabilités - Gérer les menaces : préparation Pentest des dispositifs de l'écosystème digitale, analyse d'événements de sécurité - Sécuriser les opérations : préparation de l'exercice de PRI/PCI, gestion des Leak, maintenance des ressources techniques sécurité exposées (Splunk Lookup) - Analyser les implémentations techniques et fonctionnelles proposées par les équipes du département - Préconiser les axes d'amélioration qui permettent de prendre en compte les contraintes de la PSSI Rédiger les analyses et rapports de sécurité - Réaliser le support sécurité auprès des équipes du département Surveiller en permanence les systèmes informatiques et les réseaux - Acculturer et sensibiliser les équipes du départements aux pratiques de sécurité informatique - Rédiger les analyses et les rapports de sécurité
Mission freelance
Administrateur Système, Sauvegarde et réseaux
QUALIS ESN
Publiée le
Maintien en condition opérationnelle (MCO)
6 mois
400 €
Lille, Hauts-de-France
L’Administrateur Infrastructures installe, met en production, administre et exploite les moyens informatiques d’un ou plusieurs sites informatiques - MCO / Middleware Compétences techniques : • Expertise avancée sur les domaines suivants : ? Systèmes d’Exploitation : Linux, Microsoft, Unix ? Solutions gestion/administration serveurs/PC : Active Directory,Azure AD ,Intunes ? Ordonnancement : Opcon ? Patching OS/middleware : WSUS, GPO et OCS. • Connaissances générales sur les domaines suivantes : ? Monitoring/supervision : ELK, Zabbix, libreNMS ? Outils collaboratifs : O365, Exchange Online, Intunes ? Réseau : WAN, LAN dans leur composantes Matériel et Systèmes, Services (Fortinet) ? Solutions sécurité : Sentinel One Aptitudes comportementales : • Esprit analytique permettant de construire des démarches rationnelles dans des situations techniques complexes, •
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Architecte Data & IA H/F
JEMS
Publiée le
75k-90k €
Nantes, Pays de la Loire
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : f9ubsq6g78
Offre d'emploi
Architecte Technique Data et IA H/F
JEMS
Publiée le
75k-90k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : ab4nrb21fj
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6417 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois