1
  
2
  
3
  
4
  
5
  
6
  
7
  
8
  
9
  
10
  
11
  
12
  
13
  
14
  
15
  
16
  
17
  
18
  
19
  
20
  
21
  
22
  
23
  
24
  
25
  
26
  
27
  
28
  
29
  
30
  
31
  
32
  
33
  
34
  
35
  
36
  
37
  
38
  
39
  
40
  
41
  
42
  
43
  
44
  
45
  
46
  
47
  
48
  
49
  
50
  
51
  
52
  
53
  
54
  
55
  
56
  
57
  
58
  
59
  
60
  
61
  
62
  
63
  
64
  
65
  
66
  
67
  
68
  
69
  
70
  
71
  
72
  
73
  
74
  
75
  
76
  
77
  
78
  
79
  
80
  
81
  
82
  
83
  
84
  
85
  
86
  
87
  
88
  
89
  
90
  
91
  
92
  
93
  
94
  
95
  
96
  
97
  
98
  
99
  
100
  
101
  
102
  
103
  
104
  
105
  
106
  
107
  
108
  
109
  
110
  
111
  
112
  
113
  
114
  
115
  
116
  
117
  
118
  
119
  
120
  
121
  
122
  
123
  
124
  
125
  
126
  
127
  
128
  
129
  
130
  
131
  
132
  
133
  
134
  
135
  
136
  
137
  
138
  
139
  
140
  
141
  
142
  
143
  
144
  
145
  
146
  
147
  
148
  
149
  
150
  
151
  
152
  
153
  
154
  
155
  
156
  
157
  
158
  
159
  
160
  
161
  
162
  
163
  
164
  
165
  
166
  
167
  
168
  
169
  
170
  
171
  
172
  
173
  
174
  
175
  
176
  
177
  
178
  
179
  
180
  
181
  
182
  
183
  
184
  
185
  
186
  
187
  
188
  
189
  
190
  
191
  
192
  
193
  
194
  
195
  
196
  
197
  
198
  
199
  
200
  
201
  
202
  
203
  
204
  
205
  
206
  
207
  
208
  
209
  
210
  
211
  
212
  
213
  
214
  
215
  
216
  
217
  
218
  
219
  
220
  
221
  
222
  
223
  
224
  
225
  
226
  
227
  
228
  
229
  
230
  
231
  
232
  
233
  
234
  
235
  
236
  
237
  
238
  
239
  
240
  
241
  
242
  
243
  
244
  
245
  
246
  
247
  
248
  
249
  
250
  
251
  
252
  
253
  
254
  
255
  
256
  
257
  
258
  
259
  
260
  
261
  
262
  
263
  
264
  
265
  
266
  
267
  
268
  
269
  
270
  
271
  
272
  
273
  
274
  
275
  
276
  
277
  
278
  
279
  
280
  
281
  
282
  
283
  
284
  
285
  
286
  
287
  
288
  
289
  
290
  
291
  
292
  
293
  
294
  
295
  
296
  
297
  
298
  
299
  
300
  
301
  
302
  
303
  
/* 
|| This file is part of Pike. For copyright information see COPYRIGHT. 
|| Pike is distributed under GPL, LGPL and MPL. See the file COPYING 
|| for more information. 
*/ 
 
#include "config.h" 
#include <global.h> 
#include <threads.h> 
#include <stralloc.h> 
 
#ifdef _REENTRANT 
#include <errno.h> 
#ifdef HAVE_SYS_SOCKET_H 
#include <sys/socket.h> 
#endif 
#ifdef HAVE_NETINET_IN_H 
#include <netinet/in.h> 
#endif 
#ifdef HAVE_ARPA_INET_H 
#include <arpa/inet.h> 
#endif 
 
#include "pike_netlib.h" 
#include "accept_and_parse.h" 
#include "cache.h" 
#include "util.h" 
#include "backend.h" 
#include "pike_embed.h" 
 
 
struct cache *first_cache; 
 
static struct pike_string *free_queue[1024]; 
static int numtofree; 
static PIKE_MUTEX_T tofree_mutex; 
 
static PIKE_MUTEX_T cache_entry_lock; 
int next_free_ce, num_cache_entries; 
struct cache_entry *free_cache_entries[1024]; 
 
static void low_free_cache_entry( struct cache_entry *arg ) 
{ 
  num_cache_entries--; 
 
  aap_enqueue_string_to_free( arg->data ); 
  free( arg->url ); /* host is in the same malloced area */ 
 
  mt_lock( &cache_entry_lock ); 
  if( next_free_ce < 1024 ) 
    free_cache_entries[next_free_ce++] = arg; 
  else 
    free(arg); 
  mt_unlock( &cache_entry_lock ); 
/*   fprintf(stderr, " %d+%d args\n", num_cache_entries, next_free_ce ); */ 
} 
 
struct cache_entry *new_cache_entry( ) 
{ 
  struct cache_entry *res; 
  mt_lock( &cache_entry_lock ); 
  num_cache_entries++; 
  if( next_free_ce ) 
    res = free_cache_entries[--next_free_ce]; 
  else 
    res = malloc( sizeof( struct cache_entry ) ); 
  mt_unlock( &cache_entry_lock ); 
/*   fprintf(stderr, " %d+%d centries\n", num_cache_entries, next_free_ce ); */ 
  return res; 
} 
 
static void really_free_from_queue(void) 
/* Must have tofree lock and interpreter lock */ 
{ 
  int i; 
  for( i=0; i<numtofree; i++ ) 
    free_string( free_queue[i] ); 
  numtofree=0; 
} 
 
static int ensure_interpreter_lock(void) 
{ 
  struct thread_state *thi; 
  int free=0; 
  if( (thi = thread_state_for_id( th_self() )) ) 
  { 
    if( thi->swapped ) /* We are swapped out.. */ 
    { 
      low_mt_lock_interpreter(); /* Can run even if threads_disabled. */ 
      return 1; 
    } 
    return 0; /* we are swapped in */ 
  } 
 
  /* we are not a pike thread */ 
  if( num_threads == 1 ) 
    free=num_threads++; 
  wake_up_backend(); 
  low_mt_lock_interpreter();    /* Can run even if threads_disabled. */ 
  if( free ) 
    num_threads--; 
  return 1; 
} 
 
static void free_from_queue(void) 
{ 
  /* We have the interpreter lock here, this is a backend callback */ 
  mt_lock( &tofree_mutex ); 
  really_free_from_queue(); 
  mt_unlock( &tofree_mutex ); 
} 
 
void aap_enqueue_string_to_free( struct pike_string *s ) 
{ 
  mt_lock( &tofree_mutex ); 
  if( numtofree > 1020 ) 
  { 
    /* This should not happend all that often. 
     * Almost never, actually. 
     * 
     * This only happends if 1020 different cache entries 
     * have to be freed in one backend callback loop. 
     * 
     */ 
    int free_interpreter_lock = ensure_interpreter_lock(); 
    really_free_from_queue(); 
    if( free_interpreter_lock ) 
      mt_unlock_interpreter(); 
  } 
  free_queue[ numtofree++ ] = s; 
  mt_unlock( &tofree_mutex ); 
} 
 
static size_t cache_hash(char *s, ptrdiff_t len) 
{ 
  size_t res = len * 9471111; 
  while(len--) { res=res<<1 ^ ((res&(~0x7ffffff))>>31); res ^= s[len]; } 
  return (res % CACHE_HTABLE_SIZE)/2; 
} /*                              ^^ OBS! */ 
 
static void really_free_cache_entry(struct cache  *c, struct cache_entry *e, 
                                    struct cache_entry *prev, size_t b) 
{ 
#ifdef DEBUG 
  if(d_flag>2) 
  { 
    if(b!=(cache_hash(e->url, e->url_len) + 
           cache_hash(e->host, e->host_len))) 
      Pike_fatal("Cache entry did not hash to the same spot\n"); 
    if(!mt_trylock( & c->mutex )) 
      Pike_fatal("Cache free_entry running unlocked\n"); 
    if(prev && prev->next != e) 
      Pike_fatal("prev->next != e\n"); 
  } 
#endif 
  if(!prev) 
    c->htable[ b ] = e->next; 
  else 
    prev->next = e->next; 
 
  c->size -= e->data->len; 
  c->entries--; 
  low_free_cache_entry( e ); 
} 
 
 
 
 
void aap_free_cache_entry(struct cache *c, struct cache_entry *e, 
                          struct cache_entry *prev, size_t b) 
{ 
#ifdef DEBUG 
  if(e->refs<=0) 
    Pike_fatal("Freeing free cache entry\n"); 
#endif 
  if(!--e->refs) 
    really_free_cache_entry(c,e,prev,b); 
} 
 
void simple_aap_free_cache_entry(struct cache *c, struct cache_entry *e) 
{ 
  mt_lock( &c->mutex ); 
  if(!--e->refs) 
  { 
    struct cache_entry *t, *p=0; 
    size_t hv = cache_hash(e->url, e->url_len)+cache_hash(e->host,e->host_len); 
    t = c->htable[ hv ]; 
    while(t) 
    { 
      if( t == e ) 
      { 
        really_free_cache_entry(c,t,p,hv); 
        break; 
      } 
      p=t; 
      t=t->next; 
    } 
  } 
  mt_unlock( &c->mutex ); 
} 
 
 
void aap_cache_insert(struct cache_entry *ce, struct cache *c) 
{ 
  struct cache_entry *head, *p; 
  char *t; 
  size_t hv; 
#ifdef DEBUG 
  extern int d_flag; 
  if((d_flag > 2) && !mt_trylock( & c->mutex )) 
    Pike_fatal("Cache insert running unlocked\n"); 
#endif 
  c->size += ce->data->len; 
  if((head = aap_cache_lookup(ce->url, ce->url_len, 
                              ce->host, ce->host_len, c, 1, 
                              &p, &hv))) 
  { 
    c->size -= head->data->len; 
    aap_enqueue_string_to_free(head->data); 
    head->data = ce->data; 
    head->stale_at = ce->stale_at; 
    aap_free_cache_entry( c, head, p, hv ); 
    free(ce); 
  } else { 
    c->entries++; 
    t = malloc( ce->url_len + ce->host_len ); 
    memcpy(t,ce->url,ce->url_len);   ce->url = t;   t+=ce->url_len; 
    memcpy(t,ce->host,ce->host_len); ce->host = t; 
    ce->next = c->htable[hv]; 
    ce->refs = 1; 
    c->htable[hv] = ce; 
  } 
} 
 
struct cache_entry *aap_cache_lookup(char *s, ptrdiff_t len, 
                                     char *ho, ptrdiff_t hlen, 
                                     struct cache *c, int nolock, 
                                     struct cache_entry **p, size_t *hv) 
{ 
  size_t h = cache_hash(s, len) + cache_hash(ho,hlen); 
  struct cache_entry *e, *prev=NULL; 
 
  if( hv ) *hv = h; 
  if(!nolock) 
    mt_lock(&c->mutex); 
#ifdef DEBUG 
  else 
  { 
    extern int d_flag; 
    if((d_flag>2) && !mt_trylock( & c->mutex )) 
      Pike_fatal("Cache lookup running unlocked\n"); 
  } 
#endif 
  if( p ) *p = 0; 
  e = c->htable[h]; 
  while(e) 
  { 
    if(e->url_len == len && e->host_len == hlen 
       && !memcmp(e->url,s,len) 
       && !memcmp(e->host,ho,hlen)) 
    { 
      int t = aap_get_time(); 
      if(e->stale_at < t) 
      { 
        aap_free_cache_entry( c, e, prev, h ); 
        if(!nolock) mt_unlock(&c->mutex); 
        return 0; 
      } 
      c->hits++; 
      /* cache hit. Lets add it to the top of the list */ 
      if(c->htable[h] != e) 
      { 
        if(prev) prev->next = e->next; 
        e->next = c->htable[h]; 
        c->htable[h] = e; 
      } 
      if(!nolock) mt_unlock(&c->mutex); 
      e->refs++; 
      return e; 
    } 
    prev = e; 
    if( p ) *p = prev; 
    e = e->next; 
  } 
  c->misses++; 
  if(!nolock) mt_unlock(&c->mutex); 
  return 0; 
} 
 
void aap_clean_cache(void) 
{ 
  struct cache *c = first_cache; 
  if(numtofree) free_from_queue(); 
} 
 
void aap_init_cache(void) 
{ 
  mt_init(&tofree_mutex); 
  mt_init(&cache_entry_lock); 
} 
#endif