Dernières nouvelles du Cloud
Année 2019
Octobre 2019
Date | Srv | Problème | Observations | Etat |
---|---|---|---|---|
30/10/19 12:00 | SRV10 | MAJ TSPLUS 12.50.10.24 | ![]() |
Septembre 2019
RAS
Août 2019
RAS
Juillet 2019
Date | Srv | Problème | Observations | Etat |
---|---|---|---|---|
27/07/19 20:00 | SRV10 | Ouverture d'un nouveau serveur | ![]() |
Juin 2019
RAS
Mai 2019
RAS
Avril 2019
RAS
Mars 2019
RAS
Février 2019
Date | Srv | Problème | Observations | Etat |
---|---|---|---|---|
06/02/18 10:30 | SRV3 | Panne liée à un arrêt alimentation EDF | Résolu 11:23 | ![]() |
01/02/18 20:30 | tous | Mise à jour TSPlus | Nelle version 12.1.20.27 | ![]() |
Année 2018
Septembre 2018
Date | Srv | Problème | Observations | Etat |
---|---|---|---|---|
25/09/18 20:00 ? | SMTP | SMTP bloqué pour envois excessifs | 22:00 incident résolu. Rappel, il est préférable d'utiliser votre propre SMTP | ![]() |
25/09/18 09:30 | tous | Incident général chez l'hébergeur : en cours de résolution. | Rétablissement prévu ce matin 11:26 incident résolu | ![]() |
Juin 2018
Date | Srv | Problème | Observations | Etat |
---|---|---|---|---|
01/06/18 15:45 | 3 | Le serveur semble ramer | Résolu 16:00 Réduction de la RAM à 64Go pour éviter les pbs de swap | ![]() |
01/06/18 11:00 | 3 | Les disques locaux (clients) ne sont plus accessibles | Résolu 16:00 Le redémarrage a fait réapparaître les disques lcoaux, pour une raison inconnue ![]() | ![]() |
Mai 2018
Date | Srv | Problème | Observations | Etat |
---|---|---|---|---|
23/05/18 08:00 | 7 | Depuis la dernière mise à jour de Windows, les temps de réponse sont très lents | Apparemment, ce problème est bien lié à la dernière MAJ de Windows 10. Voir détail sur ce lien | ![]() |
16/05/18 08:00 | 7 | Problème en ouverture de l'envoi de mail (problème de chargement d'Active X) | 12:20 Une recompilation a réglé ce problème | ![]() |
Avril 2018
Date | Srv | Nature | Observations | Etat |
---|---|---|---|---|
16/04/18 16:00 | 3 | Les fonctions d'impression ne fonctionnent plus sur le serveur 3 | Solution de contournement : exporter en .pdf sur le Cloud, copier ces pdf sur votre machine locale et les imprimer depuis votre machine locale. Cette solution permet de traiter les urgences. Ce problème provient de TSPlus, le logiciel que nous utilisons pour gérer les connexions au Cloud : suivi du ticket sur ce lien : (connectez vous avec l'email e.neuville@ics-informatique.com, et le n° de ticket 4315712). → Problème résolu 11/05/18 09:00 : il y avait 2 pilotes d’impressions universelles d’installé simultanément sur le serveur, supprimer le « CUSTpdf » driver et réinstaller l’imprimante universelle a fonctionné. | ![]() |
Mars 2018
Date | Srv | Nature | Observations | Etat |
---|---|---|---|---|
16/03/18 21:00 | 3, 4, 5, 6, 7 | Mise à jour | Intégration dans la whitelist du proxy des nouveaux DNS de Google Agenda, changés sans avertissement par Google… | ![]() |
16/03/18 21:00 | 7 | Mise à jour | Installation de TSPlus V 11.20.3.11 | ![]() |
02/03/18 21:00 | 4, 5, 6, 7 | Mise à jour | Remplacement de Immunet par Eset (antivirus) | ![]() |
01/03/18 21:00 | 3 | Mise à jour | Remplacement de Immunet par Eset (antivirus) | ![]() |
Février 2018
Date | Srv | Nature | Observations | Etat |
---|---|---|---|---|
09/02/18 13:00 | 5,6 | Mise à jour | Installation de TSPlus V 11.20.2.20, remplacement de DrWeb par Immunet | ![]() |
09/02/18 13:00 | 4 | Mise à jour | Installation de TSPlus V 11.10.1.22, remplacement de DrWeb par Immunet | ![]() |
05/02/18 10:00 | 3 | Problème d'impression impossible | → 06/02 20:00 Intervention en cours → 20:45 intervention terminée, problème non résolu. Suite par ticket chez TSPlus et DrWeb → 07/02/18 22:00 Installation de TSPlus V 11.10.1.22, remplacement de DrWeb par Immunet et résolution du problème | ![]() |
08/01/18 10:00 | 3 | Impression étrange sur certaines imprimantes | Il est possible que cela soit réglé par la nelle version de TSPlus. Nous allons procéder à la mise à jour dans les jours qui viennent. → 09/02 pb non réglé | ![]() |
Année 2017
Novembre 2017
Date | Srv | Nature | Etat | Observations |
---|---|---|---|---|
02/11/2017 10:00 | 6 | Impossibilité de se connecter à plus de deux sessions sur le serveur | ![]() | → 02/11 10:58 Problème résolu (était lié au réglage de l'antivirus) |
Octobre 2017
Date | Srv | Nature | Etat | Observations |
---|---|---|---|---|
06/10/2017 14:39 | 5 | Pb de lancement de Gestan sur le serveur | ![]() | → 06/10 15:38 Problème résolu (était lié à la déclaration de l'appli dans le programme de communication TSE) |
04/10/2017 15:43 | 3,4,5 | Nous observons un pb d'envoi de mail via le smtp Gestan. | ![]() | Il s'agissait d'une modification unilatérale de notre fournisseur SMTP, la société 1&1, qui est passée de mails sécurisés en TLS sur le 587 en mails SSL sur le 465. Bien sûr sans prévenir… Veuillez éventuellement reconfigurer le serveur SMTP Gestan Cloud si nécessaire, et nous excuser de ce problème indépendant de notre volonté. |
Juillet 2017
INFORMATION DU 27/07/2017 : Un problème de connexion a été identifié depuis Safari (cela concerne les Mac). En effet, Safari même dans sa dernière version 10.1 de mars 2017 n'est pas à jour du module websocket, qui est utilisé par la couche de communication Cloud TSPlus. Il faut donc qu'Apple sorte une nouvelle version de Safari. En attendant, il faut utiliser d'autre navigateurs, comme Chrome, Firefox ou Opéra. Le connecteur Mac reste cependant la solution que nous recommandons. Le support technique est à votre disposition pour vous aider à le paramétrer si les instructions de mise en oeuvre ne suffisent pas.
Date | Srv | Nature | Etat | Observations |
---|---|---|---|---|
12/07/2017 08:00 | 3,4,5 | La migration en 10.40.7.7 n'a pas réglé le pb d'accès HTML5 depuis Safari. | ![]() | Poursuite de l'investigation avec TSPlus, ticket résolu : ce lien |
11/07/2017 21:00 | 3,4,5 | Migration de tous les serveurs sous TSPlus V 10.40.7.7. | ![]() | → 07/07 21:30 : serveurs à jour OK. |
07/07/2017 02:30 | 3,4,5 | Migration de tous les serveurs sous TSPlus V 10.40.7.4. | ![]() | → 07/07 03:00 : serveurs à jour OK. |
Mars 2017
Date | Srv | Nature | Etat | Observations |
---|---|---|---|---|
17/03/2017 05:30 | 5 | le serveur est down. Nos techniciens sont sur le coup. | ![]() | → 17/03 07h40 : le serveur est redémarré et fonctionnel. |
04/03/2017 14:00 | 3 | Maintenance Serveur (consolidation disques virtuels, defrag, etc) | ![]() | → Maintenance terminée le 05/03 à 04h45 : le serveur est opérationnel |
Février 2017
Date | Srv | Nature | Etat | Observations |
---|---|---|---|---|
09/02/2017 11:35 | 5 | Possibilité d'écran noir à la connexion. | ![]() | Incident terminé |
Décembre 2016
Date | Srv | Nature | Etat | Observations |
---|---|---|---|---|
22/12/2016 10:00 | 5 | Des anomalies de profils ont été détectées. Le service sur ce serveur est très perturbé. | ![]() | Incident terminé |
20/12/2016 | 5 | Réglage correct du proxy : le temps de démarrage de Gestan est redevenu normal. | ![]() | Incident terminé |
11/12/2016 | 5 | Ouverture du serveur 5 et migration du 3 vers le 5 | ![]() |
|
07/12/2016 11:30 | 4 | Plantage serveur 4 et reboot, cause RdpCoreTS.dll. Nous effectuons le downgrade cette nuit | ![]() |
|
07/12/2016 11:48 | 4 | Plantage serveur 4 et reboot, cause RdpCoreTS.dll. | ![]() |
|
03/12/2016 17:27 | 4 | Début de la migration vers le serveur 4 ! ADG Diffusion est le premier ! Dès réalisation de la migration pour les entreprises concernées, nous leur envoyons un mail. Attention, il faut se connecter avec le nouveau connecteur SRV4 ou l'adresse https://cloud4.gestan.fr. La migration est terminée à 21:30, tous les utilisateurs concernés ont été avertis par mail. | ![]() | Migration terminée 03/12 21:30 |
Novembre 2016
30/11/2016 22:00 | Bonne nouvelle, le serveur 4, identique au 3, est opérationnel ce soir ! Nous installons les applications spécifiques demain 1/12, et allons migrer un certain nombre d'utilisateurs sur ce serveur ce samedi, afin de ne pas perturber vos activités. Nous adresserons un mail à ces utilisateurs, choisi en raison de leurs statistiques de connexion en vue de l'équilibrage de la charge. | ![]() |
30/11/2016 | ![]() En attendant, vous pouvez utiliser la connexion HTML5, via https:\\cloud3.gestan.fr, qui se connecte sans problème. Nous sommes en cours d'ouverture d'un nouveau serveur, qui permettra de délester la charge du Serveur3, en attendant la résolution du problème. | ![]() Réglé par le serveur 4 |
24/11/2016 | Nous observons en milieu de journée des problèmes de connexion au Cloud : la connexion se lance, puis est rejetée par le serveur au bout d'une durée d'environ une minute. Côté serveur le problème de le consommation de CPU persiste. Nous sommes en cours d'investigation sur ce problème. En attendant, vous pouvez utiliser la connexion HTML5, via https:\\cloud3.gestan.fr. De plus, nous avons observé empiriquement que le connecteur “passait” mieux en mode RDC qu'en mode APP. Eventuellement, téléchargez ce connecteur ici. | ![]() Réglé par le serveur 4 |
24/11/2016 22:00 | Mise à disposition d'un nouveau connecteur RDP pour la nouvelle version de TSPlus en mode RDC disponible ici. | ![]() |
23/11/2016 17:52 | Mise à disposition d'un nouveau connecteur RDP pour la nouvelle version de TSPlus en mode APP disponible ici. | ![]() |
23/11/2016 | Mise en place d'un reboot systématique quotidien à 03:00 heure de Paris. Un message d'information sera affiché avant. | ![]() |
22/11/2016 12:05 | Nous avons rencontré aujourd'hui un problème de consommation excessive de CPU pour les nouvelles connexions, empêchant la connexion de nouveaux utilisateurs. Ce problème nécessitait le redémarrage du serveur, que nous avons différé pendant la période de midi. Nous avons profité de cette interruption pour opérer une maintenance nécessaire (fin de l'utilisation du snapshot qui avait été mis en place pour sécuriser la mise en production de la nouvelle version de TSPlus), or il s'avère que cette remise en place est beaucoup plus longue que prévue, et que nous allons dépasser très largement les 3 minutes annoncées d'interruption du service. Nous vous prions de nous excuser de cette interruption, et vous adresserons un mail dès remise en place du service. Voilà où en est la réécriture du snapshot : 12:24 : 20% 12:56 : 50% 13:18 : 52% 14:00 : 68% 14:30 : 83% 15:05 : 95% 15:22 : 98% 15:31 : 100% reboot en cours 15:36 : Reprise effective !! \\Nous vous présentons nos excuses : le fonctionnement des snapshots est aléatoire, il peut durer 2 minutes comme deux heures, ici, nous sommes tombés sur deux heures… | ![]() |
18/11/2016 | Suite à la nouvelle version de TSPLus, les utilisateurs sous Mac reportent un problème : “Java VM Memory on server too low : 92 on 255 Mb Install more RAM”. Ticket ouvert chez TSPLUS, apparemment la nouvelle version ne fonctionne pas bien avec Java 32 bits. | ![]() Installation de java 64 bits effectuée 19/11 06:38. |
16/11/2016 20:30 | Installation de la nouvelle version 9.6 de la couche communication (TSPLUS). Nous mettons en place un snapshot du serveur, afin de pouvoir faire un downgrade immédiat en cas de problème sur la nouvelle version de TSPLUS. | ![]() |
10/11/2016 14:20 | Impossibilité de connexion de nouveaux utilisateurs au serveur (pb TSPLUS). Reboot nécessaire. | ![]() Reboot OK 14:38 |
21/10/2016 11:40 | Au sujet du bug Microsoft non patché 3179574, nous continuons activement les recherches. L'application des dernières mises à jour de Windows Update ce 20/10 ne résolvant pas le problème, Damien a mené des recherches pointues, et a pu mettre en évidence une mise a jour d'un élément important de TSE (le fichier RdpCoreTS.dll) effectuée par les mises a jours suivantes : KB3179574 et KB3172614. Ces mises a jour remplacent l’élément “RdpCoreTS.dll” et le passent en version 6.3.9600.18402 qui semble être affecté par le soucis de 'Black Screen'. Ces deux mises à jour ont été rollbackées, ramenant cet élément de TSE en version 6.3.9600.18255 qui ne semble pas affecté par le soucis (version de fichier antérieur au Rollup du mois d’août incriminé). Nous allons très vite voir dans les jours à venir si cela résoud notre problème. | ![]() Au bout de 10 jours de fonctionnement sans problème, le downgrade résoud bien le problème. Cool |
= dans l'ordre : en cours, en attente, terminé.