Ver Mensaje Individual
  #3 (permalink)  
Antiguo 13/01/2003, 15:20
Sandungas
 
Fecha de Ingreso: diciembre-2002
Mensajes: 23
Antigüedad: 21 años, 4 meses
Puntos: 0
Gracias cluster. La expresión q me comentas funciona a la perfección pero ese no es el problema. Si te fijas, la separación de url y enlace sólo se hace una vez, por lo q el consumo de recursos es mínimo. El problema creo q está en la forma de comprobar el recíproco.

Código PHP:
function recip($surl,$reciproco){
    
$fd fopen ("$surl""r");
    while (!
feof ($fd)) 
    {
        
$buffer fgets($fd4096);
        if (
strstr($buffer,$reciproco))
            return 
true;
    }
    
fclose ($fd);

De esta forma, para cada página enlazada leemos línea a línea hasta q encontremos el enlace. Pero para listas muy largas parece q se colapsa.

¿Alguna idea sobre como reducir el coste? ¿Podría usar exp. regulares aquí para reducir la carga?

Un saludo a todos, y gracias por la ayuda.